QUIMICA - Monografias.com

Anuncio
QUIMICA - Monografias.com
Regístrese
Compare
precios
Buscar:
Nuevos
Publicar
Consulte a
los expertos
Buscar
Toolbar
Foros
Ayuda
Recomendar
Recomendamos:
Barra de
herramientas
gratuita
Avanzada
Agregar a Recomendar
favoritos
Imprimir
Bajar
Trabajo
(Descargar)
Química
Indice
1. Introducción
2. Definición de enlace químico.
3. Predicción del tipo de enlace usando la escala de electronegatividad de pauling.
4. Fórmulas de lewis para moléculas e iones poliatómicos.
5. Geometría electrónica y molecular.
6. Teoría de enlace de valencia.
7. Estado de la materia
8. Glosario
9. Conclusión
10. Bibliografía
1. Introducción
Las propiedades de las sustancias están determinadas en parte por los enlaces químicos que mantienen
unidos a los átomos. Cuando los átomos interactúan para formar un enlace químico, solo entra en
contacto sus regiones más externas.
En la mayor parte de las moléculas los átomos están enlazados por uniones covalentes. La mayoría de
los enlaces iónicos se obtienen de la purificación de minerales que contienen al compuesto.
Las estructuras que se utilizan para representar los compuestos covalentes se denominan Estructura de
Lewis, en dicha estructura solo se muestran los electrones de valencia.
La tendendencia de los átomos en las moléculas a tener ocho electrones en su capa de valencia se
conoce como Regla del Octeto, formulada por el mismo Lewis.
También hablaremos sobre la electronegatividad, el concepto relativo, en el sentido de que la
electronegatividad de un elemento solo se puede medir respecto de la de otros elementos. Sabemos por
varios experimentos que las moléculas tienen estructuras definidas; esto es, los átomos de una molécula
http://www.monografias.com/trabajos12/quimi/quimi.shtml (1 of 19)25/05/2005 13:43:43
QUIMICA - Monografias.com
tienen posiciones definidas relativas uno con el otro en un espacio de tres dimensiones, es de aquí donde
sale el estudio experimental denominado El Momento Dipolo.
El modelo de repulsión de pares de electrones de la capa de valencia basado en las estructuras de Lewis,
es un método bastante sencillo y directo para predecir las geométricas moleculares.
La mecánica cuántica posee dos teorías: teoría del enlace de valencia y la teoría de orbítales
moleculares, ambas emplean los métodos de la mecánica cuántica pero hacen diferentes suposiciones y
simplificaciones.
2. Definición de enlace químico.
Se define como la fuerza de unión que existe entre dos átomos, cualquiera que sea su naturaleza, debido
a la transferencia total o parcial de electrones para adquirir ambos la configuración electrónica estable
correspondiente a los gases inerte; es decir, el enlace es el proceso por el cual se unen átomos iguales o
diferentes para adquirir la configuración electrónica estable de los gases inertes y formar moléculas
estables.
Enlace iónico:
El enlace iónico: fuerza electrostática que mantiene unidos a los iones en un compuesto iónico.
Características del enlace iónico.
● Se rompe con facilidad obteniéndose los iones que lo forman, generalmente basta disolver la
sustancia.
● Las substancias con enlaces iónicos son solubles en solventes polares.
Formación de los compuestos iónicos.
Resulta de las interacciones electrostáticas entre iones, que a menudo resulta de la transferencia neta de
uno o más electrones de un átomo o grupo de átomos a otro, es decir, es la atracción de iones con carga
opuesta (cationes y aniones) en grandes números para formar un sólido. Ejemplo: un átomo de sodio
(Na) fácilmente puede perder un electrón para formar el catión sodio, que se representa como Na+, un
átomo de cloro puede ganar un electrón para formar el ion cloruro Cl -, Se dice que el cloruro de sodio
(NaCl), la sal común de mesa es un compuesto iónico porque está formado por cationes y aniones. El Na
+ es el catión y el Cl – es el anión.
NaCl
Enlace Covalente:
Enlace covalente: enlace en el que dos átomos comparten dos electrones.
Características del enlace covalente.
http://www.monografias.com/trabajos12/quimi/quimi.shtml (2 of 19)25/05/2005 13:43:43
QUIMICA - Monografias.com
Es muy fuerte y se rompe con dificultad.
Si la diferencia de electronegatividades entre los 2 átomos es marcada, tenemos un enlace polar y se
favorecerá la solubilidad de la sustancia en solventes polares. Ejemplo: un enlace O-H
● Si la diferencia de electronegatividades es poca, tenemos un enlace no polar y se favorecerá la
solubilidad de la sustancia en solventes no polares. Ejemplo: un enlace C-H o C-C
●
●
Tipos de enlaces covalentes. Los átomos pueden formar distintos enlaces covalentes: En un enlace
sencillo, dos átomos se unen por medio de un par de electrones. En muchos compuestos se formar
enlaces múltiples, es decir, enlaces formados cuando dos átomos comparten dos o más pares de
electrones. Si dos átomos comparten dos pares de electrones, el enlace covalente se denomina enlace
doble. Un triple enlace surge cuando dos átomos comparten tres pares de electrones.
Formación de los enlaces covalentes. Se forma cuando dos átomos comparten uno o más pares de
electrones. Este tipo de enlace ocurre cuando la diferencia de electronegatividades entre los elementos
(átomos) es cero o relativamente pequeña.
El enlace covalente se representa con una línea recta que une a los 2 átomos, por ejemplo:
O-H
Veamos un caso simple de enlace covalente, la reacción de dos átomos de hidrógeno para formar una
molécula H2. Un átomo aislado de hidrógeno tiene la configuración electrónica del estado fundamental
1s1, con la densidad de probabilidad para este único electrón esféricamente distribuida en torno al núcleo
del hidrógeno (figura a).
Cuando dos átomos de hidrógeno se acercan uno a otro, el electrón de cada átomo de hidrógeno es
atraído por el núcleo del otro átomo de hidrógeno tanto por su propio núcleo (figura b).
Si estos dos electrones tienen espines opuestos de forma que pueden ocupar la misma región (orbital),
ambos electrones pueden ocupar preferencialmente la región entre los dos núcleos. Porque son atraídos
por ambos núcleos. (figura c):
http://www.monografias.com/trabajos12/quimi/quimi.shtml (3 of 19)25/05/2005 13:43:43
QUIMICA - Monografias.com
Los electrones son compartidos entre los dos átomos de hidrógeno, y se forma un enlace covalente
simple. Decimos que los orbítales 1s se solapan, así que ambos electrones ahora están en los orbítales
de los dos átomos de hidrógeno. Mientras más se aproximan los átomos, más cierto es esto. En este
sentido, cada átomo de hidrógeno ahora tiene la configuración del helio 1s2.
Otros pares de átomos no metálicos comparten pares electrónicos para formar enlaces covalentes. El
resultado de esta compartición es que cada átomo consigue una configuración electrónica más estable
(frecuentemente la misma que la del gas noble más próximo).
Enlaces covalentes polares y no polares:
Los enlaces covalentes pueden ser polares y no polares. En un enlace no polar tal como el de la molécula
de hidrógeno, H2, el par electrónico es igualmente compartido entre los dos núcleos de hidrógeno. Ambos
átomos de hidrógeno tienen la misma electronegatividad (tendencia de un átomo a atraer los electrones
hacia sí en un enlace químico), es decir que los electrones compartidos están igualmente atraídos por
ambos núcleos de hidrógeno y por tanto pasan iguales tiempos cerca de cada núcleo. En este enlace
covalente no polar, la densidad electrónica es simétrica con respecto a un plano perpendicular a la línea
entre los dos núcleos. Esto es cierto para todas las moléculas diatómicas homonucleares, tales como H2,
O2, N2, F2 Y Cl2, porque los dos átomos idénticos tienen electronegatividades idénticas. Por lo que
podemos decir: los enlaces covalentes en todas las moléculas diatómicas homonucleares deben ser no
polares.
Un enlace covalente polar, tal como el fluoruro de hidrógeno los pares electrónicos están compartidos
desigualmente. El enlace H-F tiene algún grado de polaridad ya que H y F no son átomos idénticos y por
lo tanto no atraen igualmente a los electrones. La electronegatividad del hidrógeno es 2,1 y la del fluor es
de 4,0, claramente el átomo F con su mayor electronegatividad, atrae el par electrónico compartido
mucho más fuertemente que H. La distribución asimétrica de la densidad electrónica está distorsionada
en la dirección del átomo más electronegativo F. Este pequeño desplazamiento de densidad electrónica
deja a H algo positivo. El HF se considera una molécula diatómica heteronuclear, ya que contiene dos
clases de átomo.
Momentos bipolares. La polaridad de una molécula la indicamos por su momento dipolar, que mide la
separación de cargas en la molécula. El momento dipolar, •• se define como el producto de la carga Q y
la distancia r entre las cargas:
••••Q x r
Para mantener la neutralidad eléctrica, las cargas en ambos extremos de una molécula diatómica
eléctricamente neutra deben ser iguales en magnitud y de signo opuesto. Sin embargo en la ecuación Q
se refiere solo a la magnitud de la carga y no a su signo, por lo que • siempre es positiva. Los momentos
dipolo generalmente se expresan en unidades Debye (D), así denominadas en honor de Peter Debye. El
factor de conversión es:
1 D = 3,33 x 10-30 C m
(Donde C es Coulomb y m es metro)
http://www.monografias.com/trabajos12/quimi/quimi.shtml (4 of 19)25/05/2005 13:43:43
QUIMICA - Monografias.com
Un momento dipolar se mide colocando una muestra de la sustancia entre dos placas y aplicando un
voltaje. Esto produce un pequeño desplazamiento de la densidad electrónica de cualquier molécula, así
que el voltaje aplicado disminuye ligeramente. Sin embargo las moléculas diatómicas que contienen
enlaces polares, tales como HF, HCl, y CO, tienden a orientarse en el campo eléctrico. Esto hace que el
voltaje medido entre las placas disminuya más marcadamente para estas sustancias, y así decimos que
estas moléculas son polares. Moléculas tales como F2 o N2 no se reorientan, así que el cambio de voltaje
entre las placas es ligero; decimos que estas moléculas son no polares. Generalmente, cuando las
diferencias de electronegatividades en las moléculas diatómicas aumentan, los momentos dipolares
medidos aumentan.
Los momentos dipolares asociados con enlaces individuales sólo pueden medirse en moléculas
diatómicas simples. Más que pares seleccionados de átomos, lo que se sujeta a medición son moléculas
enteras. Los valores medidos de momentos dipolares reflejan las polaridades globales de las moléculas.
Para las moléculas poliatómica son el resultado de todos los dipolos de enlace de las moléculas.
El momento dipolo de una molécula formada por tres o mas átomos está determinado tanto por la
polaridad de sus enlaces como por su geometría. La presencia de enlaces polares no necesariamente
significa que la molécula presente un momento dipolo. Por ejemplo el dióxido de carbono (CO2) es una
molécula triatómica, por lo que su geometría puede ser lineal o angular. Cuando la molécula es lineal; no
tiene momento dipolo y, cuando la molécula es angular; tiene un momento dipolo. En este caso, el
momento dipolo de la molécula completa es la resultante de los dos momentos de enlace, es decir, de los
momentos dipolos individuales de los enlaces C = O. el momento de enlace es una cantidad vectorial, lo
que significa que tiene tanto magnitud como dirección. El momento dipolo medido es igual a la suma
vectorial de los momentos de enlaces.
3. Predicción del tipo de enlace usando la escala de electronegatividad de Pauling.
La escala más usada para medir electronegatividades se basa en una desarrollada por Linus Pauling. El
observó que cuando se combinan los átomos de diferentes electronegatividades, sus enlaces son más
fuertes de lo esperado. Se cree que son dos los factores que contribuyen a la fuerza del enlace. Uno de
ellos es el enlace covalente entre los átomos. El otro es la unión adicional producida por una atracción
entre los extremos opuestamente cargados del enlace dipolo. La fuerza extra del enlace se atribuyó
entonces a la unión adicional y Pauling utilizó este concepto para desarrollar su tabla de
http://www.monografias.com/trabajos12/quimi/quimi.shtml (5 of 19)25/05/2005 13:43:43
QUIMICA - Monografias.com
electronegatividades.
Cuando se tenga algún interés en conocer algo acerca de la polaridad de un enlace, tal vez dicho interés
se base en la diferencia de las electronegatividades entre los dos átomos unidos por el enlace. Si la
diferencia es pequeña, el enlace será relativamente no polar, pero si es grande, el enlace será polar. Si la
diferencia en la electronegatividad es muy grande, el par de electrones se concentrará casi en forma
exclusiva alrededor del átomo más electronegativo y el enlace será iónico. Se ve por consiguiente, que el
grado del carácter iónico del enlace, según sea medido por la cantidad por la carga soportada de los
átomos en cada extremo podrá variar desde cero hasta un 100%, dependiendo de las
electronegatividades de los átomos unidos.
Por ultimo, vale la pena tomar nota de las tendencias de electronegatividad dentro de la tabla periódica.
Se observará que los elementos más electronegativos se encuentran en la parte superior derecha de la
tabla; los menos electronegativos se encuentran en la parte inferior izquierda. Esto consiste con las
tendencias de la energía de ionización (El) y de la afinidad electrónica (AE). Es también consistente con
las observaciones realizadas en donde los átomos procedentes de los extremos opuestos de la tabla —
litio y flúor, por ejemplo— forman enlaces que son esencialmente iónicos y que átomos como el carbono y
el oxígeno forman enlaces covalentes que sólo son poco polares.
4. Fórmulas de Lewis para moléculas e iones poliatómicos.
Las formulas de Lewis las usamos para mostrar los electrones de valencia en dos moléculas simples.
Una molécula de agua puede representarse por uno de los siguientes diagramas.
Una molécula de H2O tiene dos pares electrónicos compartidos, es decir, dos enlaces covalentes
http://www.monografias.com/trabajos12/quimi/quimi.shtml (6 of 19)25/05/2005 13:43:43
QUIMICA - Monografias.com
simples. El átomo O tiene dos pares no compartidos:
En las formulas de guiones, un par de electrones compartidos se indican por un guión. En el dióxido de
carbono (CO2) hay dos dobles enlaces, y su formula de Lewis es:
Una molécula de dióxido de carbono (CO2) tiene cuatro pares electrónicos compartidos, es decir, dos
dobles enlaces. El átomo central (C) no tienes pares sin compartir.
Los enlaces covalentes en un ion poliatómico pueden representarse de la misma forma. La formula Lewis
para el ion amonio, NH4, muestra solo ocho electrones, aunque el átomo N tiene cinco electrones en su
capa de valencia y cada átomo H tiene uno, con un total de cinco más cuatro (1) igual nueve electrones.
El ion NH4+, con una carga de 1+, tienen un electrón menos que los átomo originales.
Describir formulas de Lewis es un método de contar los electrones que es útil para la primera
aproximación para sugerir esquemas de enlaces. Es importante saber que las formulas de puntos de
Lewis solo muestran el número de electrones de valencia, el número y las clases de enlaces y el orden en
que están conectados los átomos. No intentan mostrar las formas tridimensionales de las moléculas e
iones poliatómicos.
Regla del Octeto. Limitaciones de la regla del octeto para la formula de Lewis.
Regla de octeto. Se basa en que un átomo diferente del hidrógeno tienden a formar enlaces hasta que se
rodea de ocho electrones de valencia, es decir, un enlace covalente se forma cuando no hay suficientes
electrones para que cada átomo individual tenga el octeto completo. Al compartir electrones en un enlace
covalente, los átomos individuales pueden completar sus octetos.
La regla del octeto funciona principalmente para los elementos del segundo periodo de la tabla periódica.
Estos elementos solo tienen subniveles 2s 2p, los cuales pueden contener un total de ocho electrones.
Cuando un átomo de uno de estos elementos forman un compuesto covalente, pueden obtener la
configuración electrónica de gas noble [Ne] al compartir electrones con otros átomos del mismo
compuesto.
Limitaciones del las reglas de octeto para las formulas de Lewis.
Las formulas de Lewis normalmente no se escriben para compuestos que contienen metales de transición
d y f. los metales de transición d y f utilizan en el enlace orbítales s y p.
1.- La mayoría de los compuestos covalentes del berilio, Be. Debido a que Be contiene solo dos
electrones en la capa de valencia, habitualmente forma solo dos enlaces covalentes cuando se enlaza
con otros dos átomos. Por lo tanto se usa cuatro electrones como el número necesario para Be en la
http://www.monografias.com/trabajos12/quimi/quimi.shtml (7 of 19)25/05/2005 13:43:43
QUIMICA - Monografias.com
etapa 2, en la etapa 5 y 6 se usa solo dos pares de electrones para Be.
2.- La mayoría de los compuestos covalentes de los elementos del Grupo IIIA, especialmente boro, B.
Estos elementos contienen solo tres electrones en la capa de valencia, así que a menudo forman tres
enlaces covalentes cuando se enlazan a otros tres átomos. Por lo tanto, se usa seis electrones como el
número necesario para los elementos IIIA contiene solo tres electrones en la etapa 2; y en las etapas 5 y
6 se usa solo tres pares de electrones para los elementos IIIA.
3.- Los compuestos o iones que contienen un número impar de electrones ejemplos son NO, con 11
electrones en la capa de valencia, y NO2, con 17 electrones en la capa de valencia.
4.- Compuestos o iones en los que el elemento central necesita más de ocho electrones en la capa de
valencia para mantener todos los electrones disponibles, D. cuando uno se encuentra con esto, se
añaden las reglas extra a las etapas 4 y 6.
Etapa 4a: si C, el numero de electrones compartidos, es menor que el número necesario para enlazar
todos los átomos al átomo central, entonces C se aumenta el número de electrones necesario.
Etapa 6a: si C debe aumentarse en la etapa 4a, entonces los octetos de todos los átomos podrían
satisfacerse antes de que todos los electrones D hayan sido añadidos. Colocar los electrones extra sobre
el elemento central.
Muchas veces que violan las reglas del octeto son muy reactivas por ejemplo, los compuestos que
contienen átomos con solo cuatro electrones de valencia (limitación 1 de arriba) o seis electrones de
valencia (limitación 2 de arriba) frecuentemente reaccionan con otras especies que suministran pares
electrónicos. Compuestos como estos que aceptan un par de electrones para compartir se denominan
ácido de Lewis: una base le Lewis es una especie que puede disponer de un par de electrones para
compartir. Las moléculas con un número impar de electrones a menudo se dimerizan (combinan en
pares) para dar productos que sí satisfacen la regla de octeto, ejemplos son la dimerización del NO para
formar N2O2 y del NO2 para formar N2O4.
5. Geometría electrónica y molecular.
Geometría molecular.
Es la distribución tridimensional de los átomos de una molécula. La geometría de una molécula influye en
sus propiedades físicas y químicas, como el punto de fusión, punto ebullición, la densidad y el tipo de
reacción en que puede participar.
La geometría alrededor de un átomo central dado de una molécula, es aquella que hace mínima la
repulsión de los pares de electrones, los usados para formar enlaces y los no usados que quedan como
pares libres alrededor de cada átomo en la molécula.
Para comprender cabalmente este principio, se debe saber que la estructura electrónica de moléculas en
base a la configuración de octetos, necesariamente deja en libertad pares de electrones. Obviamente,
estos pares, ubicados alrededor de un átomo que se considere central, deben situarse de manera que la
repulsión electrostática entre dos pares, sea mínima. Así, lo primero es hacer un balance electrónico de la
molécula en base a octetos, luego decidir cual átomo se considera central para luego analizar que pasa
con los pares de electrones alrededor de éste. Los ejemplos de moléculas que se presentan a
continuación, cubren prácticamente todas las posibilidades geométricas posibles de alcanzar.
http://www.monografias.com/trabajos12/quimi/quimi.shtml (8 of 19)25/05/2005 13:43:43
QUIMICA - Monografias.com
BeCl2 La idea aquí es que los pares de electrones en los enlaces y los pares solitarios de un átomo, se
posicionen lo más alejados posibles. Como ejemplos comencemos con la molécula BeCl2 que tiene la
estructura de Lewis señalada. Nótese que hay dos pares de electrones alrededor de Be, de modo que
para que estos se encuentren lo más alejados posibles, formarán un ángulo de 180° entre sí, generando
así la máxima separación entre los pares de electrones. Esto nos genera la estructura lineal para BeCl2.
BeH2 Este caso es similar al anterior, es lineal, no quedan e- libres, todos en los enlaces y produce una
conformación lineal
CO2 Recordar que C (1s22s2 2p2), contiene 4 e- en la capa de valencia que corresponden los
seleccionados en la figura, todos se comparten para formar los octetos alrededor de cada átomo, no
permanecen pares de cargas libres y la molécula es lineal.
BF3 La estructura de Lewis para esta molécula, es la que se presenta a la izquierda. Aquí el B no
presenta pares solitarios sin ocupar y solo está rodeado por tres pares de electrones que forman enlaces.
Es una molécula deficiente en electrones.
La agrupación de los F a su alrededor a 120° hace mínima la repulsión, por lo que la geometría molecular
es la que se muestra, plana formando 120°, un triángulo equilátero.
NH3 Se predice la estructura del NH3 mediante pasos a seguir durante el procedimiento referidos a la
http://www.monografias.com/trabajos12/quimi/quimi.shtml (9 of 19)25/05/2005 13:43:43
QUIMICA - Monografias.com
figura de la izquierda
PASO 1 Escribir la estructura de Lewis (octeto). Obsérvese que nada se ha establecido aún sobre la
verdadera geometría.
PASO 2 Contar los pares electrónicos y reagruparlos para minimizar la repulsión. Esta molécula presenta
4 pares de electrones y lo mejor que se puede lograr es una redistribución tetraédrica.
PASO 3 Se Ubica los átomos H en sus posiciones, los tres compartiendo pares de electrones como se
muestra a continuación
PASO 4 Se Nombra la estructura de la molécula, basándose en la posición de los átomos. Colocando los
pares electrónicos determina la estructura y que la geometría se basa en los átomos. Es incorrecto
afirmar que NH3 es tetraédrico. Realmente, posee una agrupación tetraédrica de sus pares electrónicos,
pero su geometría, es una pirámide trigonal.
Hasta el momento hemos tomado casos en que 2, 3 y 4 pares de electrones se ubican alrededor de un
átomo del centro. Sin embargo, esto puede ocurrir con 5 y 6 pares de electrones también de modo que
conviene mostrar la forma que todos se agrupan alrededor de un átomo, con el fin de lograr la mínima
repulsión entre ellos. La Tabla a continuación muestra todos estos casos.
http://www.monografias.com/trabajos12/quimi/quimi.shtml (10 of 19)25/05/2005 13:43:43
QUIMICA - Monografias.com
Este esquema lo ocuparemos ahora para deducir la geometría de algunas moléculas típicas.
XeF4 Debido a que los gases nobles presentan una estructura de capas de valencia s p completamente
ocupadas, siempre se pensó que eran químicamente inactivos. Así, por muchos años se le consideró
gases inertes hasta que en 1960 varios compuestos de Kr, de Xe y de Rn fueron sintetizados. Un ejemplo
es el compuesto XeF4 cuya estructura de Lewis se muestra a la derecha.
Nótese que el átomo Xe se encuentra rodeado por seis pares de electrones, en total 12 electrones que
exige que la forma adquirida por estos sea octaédrica, como se ve en la figura que acompaña.
http://www.monografias.com/trabajos12/quimi/quimi.shtml (11 of 19)25/05/2005 13:43:43
QUIMICA - Monografias.com
La estructura geométrica dependerá de cómo se estos pares solitarios y los enlaces se ubiquen. Las
posibilidades son como las que se señala para los casos a , b a la derecha y, obviamente, debemos
decidir cuál de estas dos formas geométricas es la correcta.
En el caso a, estos pares solitarios se encuentran a 90° entre sí en cambio, en b están separados por
180° y esta es la geometría más correcta para evitar la repulsión de los pares de electrones solitarios.
La geometría experimental coincide con este análisis, muestra los 4 F ocupando el plano ecuatorial. Así,
XeF4 es cuadrado plano con el Xe en el centro molecular
Estructuras geométricas de H2O, NH3, CH4.
Vamos a comparar ahora lo que se logra con las moléculas señaladas, puesto que todas poseen un
átomo central con 4 pares electrónicos de los cuales, el metano los ocupa totalmente y las otras en forma
parcial. Lo que se logra es
y se ve claramente que la existencia de pares electrónicos libres disminuyen el ángulo de la estructura
pseudo-tetraédrica en estas moléculas.
Enlaces múltiples en VSEPR
Hasta el momento nuestro tratamiento considera sólo moléculas con enlaces simples. Para saber como
manejar la situación en moléculas con enlaces dobles, triples etc, tomemos la estructura del ion NO3para el que se requiere escribir tres estructuras resonantes
http://www.monografias.com/trabajos12/quimi/quimi.shtml (12 of 19)25/05/2005 13:43:43
QUIMICA - Monografias.com
Además, el ion NO3- se sabe que es planar con ángulos de enlace de 120° y esta estructura planar es la
que se espera para tres pares de electrones solitarios alrededor del átomo central. Esto significa que un
doble enlace debe contarse como un par solitario efectivo en la descripción de la geometría molecular. En
realidad, esta bien que sea así porque disponer " dos pares solitarios " en un enlace doble, " los obliga a
no ser independientes"
En VSEPR, enlaces múltiples cuentan como un par solitario efectivo
Moléculas que no contienen un átomo central.
Para ilustrar estos casos, usemos la molécula METANOL, la estructura de Lewis se muestra a la derecha
y donde se observa que no hay un átomo central, definido sino que el C y el O forman parte del centro
molecular.
La geometría se puede predecir investigando previamente como se ordenan los pares solitarios alrededor
de cada uno de los átomos participantes, que no son de los extremos, esto es, C y O
Nótese que hay 4 pares solitarios de electrones alrededor del carbono, que lo obligan a adoptar una
forma tetraédrico. Alrededor de éste, se ubican 3 átomos H y el átomo O que proviene del grupo OH.
http://www.monografias.com/trabajos12/quimi/quimi.shtml (13 of 19)25/05/2005 13:43:43
QUIMICA - Monografias.com
Ahora bien, recordemos que el átomo O en el H2O dispone de 2 pares solitarios sin compartir, que hacen
que adopten una geometría angular. En la molécula metanol, una posición del agua está ocupada por el
átomo C del CH3 pero preservando la forma angular, como lo muestra la figura a la derecha.
La geometría final se logra conocer juntando ambas formas desarrolladas para cada fragmento y se
observa claramente que el H del grupo OH no es lineal respecto a la línea de unión C-O sino que forma
un ángulo muy parecido al que corresponde al agua. La última la figura a la izquierda nos entrega la
forma final que debe adoptar el Metanol, con un entorno tetraédrico alrededor del átomo C y una forma
angular alrededor del átomo O.
http://www.monografias.com/trabajos12/quimi/quimi.shtml (14 of 19)25/05/2005 13:43:43
QUIMICA - Monografias.com
I-3 : ion azida. La estructura electrónica de Lewis para este ion es la que aparece en la figura a la
izquierda. Allí podemos observar que, si bien no existen enlaces múltiples, el átomo central acomoda en
total 10 e 's ocupando orbitales atómicos d superiores. en todo caso, como átomo central maneja 5 pares
de electrones de los cuales, 2 forman los enlaces y los otros tres deben agruparse de modo que la
repulsión electrónica sea mínima.
La estructura a describe el caso en que dos de los pares solitarios salen perpendicular al plano formado
por los átomos y formando un ángulo de 90° con el tercer par solitario (en el plano de los tres átomos de
Iodo).
La estructura b produce otra agrupación de los pares solitarios, que también forman 90° entre sí y
finalmente, la figura c ubica los tres pares solitarios formando 120° entre sí logrando la mínima repulsión.
La geometría c es la que corresponde al resultado experimental y la molécula I-3 es lineal.
Geometría electrónica: Se refiere a la ordenación geométrica de los electrones de valencia alrededor del
átomo central.
Geometría molecular: Se refiere a la ordenación de los átomos o núcleos en el espacio, no de los pares
de electrones.
6. Teoría de enlace de valencia.
La teoría de enlace de valencia es una teoría aproximada para explicar el enlace por par de electrones o
covalente con la mecánica cuántica.
http://www.monografias.com/trabajos12/quimi/quimi.shtml (15 of 19)25/05/2005 13:43:43
QUIMICA - Monografias.com
Teoría básica.
De acuerdo con la teoría sobre enlace valencia, se forma un enlace entre dos átomos cuando se
satisfacen las condiciones siguientes:
● Un orbital de en un átomo viene a ocupar una porción de la misma región del espacio que ocupa un
orbital del otro átomo. Se dice que los dos orbítales se traslapan. Esto se explica ya que a medida que el
orbital de un átomo se traslapa con el otro, los electrones en orbítales comienzan a moverse alrededor de
ambos átomos. Debido a que los electrones a ambos núcleos a la vez, jalan juntos a los átomos. La
fuerza del enlace depende de la cantidad de traslape; mientras mayor sea la sobreposición mayor será la
fuerza de la unión.
● El número total de electrones en ambos orbítales no es mayor a dos. Lo dos orbítales no pueden
contener más de dos electrones, porque en una región dada del espacio solo pueden estar dos
electrones (esto ocurre siempre y cuando si los espines de los electrones son opuestos).
A medida que el orbital de un átomo se traslapa con el orbital de otro, los electrones en los orbítales
empiezan a moverse alrededor de ambos átomos. Debido a que los electrones son atraídos a ambos
núcleos a la vez, jalan juntos a los átomos. La fuerza del enlace depende de la cantidad de traslape;
mientras mayor sea la sobreposición mayor será la fuerza de la unión. Los dos orbítales no pueden
contener mas de dos electrones, porque en una región dada del espacio solo pueden estar dos
electrones (y eso solamente si los espines de los electrones son opuestos).
Importancia del enlace químico.
El enlace es la unión entre los átomos de un compuesto. La unión o enlace entre los átomos tiene su
origen en la estructura electrónica de los mismos. La actividad química de los elementos radica en su
tendencia a adquirir, mediante su unión con otros átomos, la configuración de gas noble (ocho electrones
en la capa más externa, salvo el helio que sólo tiene dos), que es muy estable. Es corriente distinguir tres
tipos principales de enlaces químicos: iónico, covalente y metálico. Aunque dichos enlaces tienen
propiedades bien definidas, la clasificación no es rigurosa, existiendo una transición gradual de uno a
otro, lo que permite considerar tipos de enlace intermedios. Gracias a estos enlaces se forman los
compuestos químicos, por ejemplo la sal.
La sal común es una sustancia bien conocida. Es utilizada para conservar y aderezar alimentos. Nuestra
sangre posee casi la misma proporción de sal que el agua del mar, y es fundamental para mantener
muchas de nuestras funciones vitales. Está formada por un no metal, el cloro y un metal alcalino, el sodio.
Ambos en estado puro son extremadamente peligrosos para el hombre, sin embargo, forman juntas una
sustancia, la sal común, que es inocua en pequeñas cantidades. Se dice por tanto que han formado un
compuesto químico, una sustancia muy diferente de los elementos que la componen.
Muchas de las sustancias que conocemos están formadas por uniones de distintos elementos. El azúcar,
por ejemplo, está formado por oxígeno, hidrógeno y carbono. Estos átomos que pierden o ganan
electrones para unirse se transforman en iones, átomos con carga eléctrica. Estos iones se unen para
formar compuestos químicos, y la forma de unirse entre ellos se realiza mediante enlaces químicos.
7. Estado de la materia
Todas las sustancias pueden existir, al menos en principio, en los tres estados: sólido, líquido y gaseoso.
Como muestra la siguiente figura:
http://www.monografias.com/trabajos12/quimi/quimi.shtml (16 of 19)25/05/2005 13:43:43
QUIMICA - Monografias.com
En un sólido, las moléculas se mantienen unidas en forma organizada con poca libertad de movimiento.
En un líquido las moléculas están unida, pero no en una posición tan rígida y se puede mover libremente.
En un gas, las moléculas están separadas por distancias que son grandes en comparación con el tamaño
de las moléculas.
Los tres estados de la materia pueden ser convertibles entre ellos sin que cambie la composición de la
sustancia. Un sólido (por ejemplo el hielo) se fundirá por calentamiento y formará un líquido (agua). (La
temperatura a la cual se da esta transición de denomina punto de fusión). El calentamiento anterior
convertirá el líquido en un gas. (Esta conversión se lleva a cabo en el punto de ebullición del líquido.) por
otro lado el enfriamiento de un gas lo condensará para formar un líquido. Cuando el líquido se enfría aun
más se congelará y se formará un sólido.
El plasma es considerado como el cuarto estado de la materia, pues su presencia en el universo es muy
abundante. Se trata de una masa gaseosa fuertemente ionizada en la cual, como consecuencia de
temperaturas extremadamente elevadas, los átomos se han visto despojados de su envoltura de
electrones y coexisten con los núcleos atómicos en un estado de agitación intensa. Las estrellas, durante
una parte importante de su vida, están constituidas por grandes masas de plasma. Debido a la violencia
de los choques entre núcleos, en tales condiciones se producen reacciones de síntesis de núcleos
nuevos con una considerable liberación de energía. El Sol es esencialmente una enorme esfera de
plasma.
8. Glosario
● Capa de valencia. Capa electrónica externa de un átomo que contiene los electrones que participan en
el enlace.
● Electrones de valencia. Electrones externos de un átomo, los cuales son los implicados en el enlace
químico.
● Catión. Ion cargado positivamente que se forma por la remoción de electrones de átomos ó moléculas.
● Anión: Ion cargado negativamente que se forma por la adición de electrones a átomos o moléculas.
● Enlace sigma, •. Enlace covalente formado por orbítales que se traslapan por los extremos: su
densidad electrónica está concentrada entre los núcleos de los átomos que se unen.
● Enlace pi, •••enlace covalente formado por el traslape lateral de los orbítales; su densidad electrónica
se concentra arriba y abajo del plano de los núcleos de los átomos que están unidos.
● Carga formal. La carga sobre un átomo en una molécula o ion enlazado covalentemente; los electrones
enlazantes se cuentan como si estuvieran igualmente compartidos entre los dos átomos enlazados.
● Resonancia. Concepto según el cual son necesarias dos o más formulas de Lewis equivalentes para la
http://www.monografias.com/trabajos12/quimi/quimi.shtml (17 of 19)25/05/2005 13:43:43
QUIMICA - Monografias.com
misma disposición de átomos (estructura de resonancia) para describir el enlace en una molécula o ion.
● Geometría iónica. Es la disposición de los átomos (no de pares electrónicos, no compartidos) sobre el
átomo ce3ntral de un ion poliatómico.
● Hibridación: termino que se utiliza para explicar las mezclas de los orbítales atómicos en un átomo
(generalmente el átomo central) para generar un conjunto de orbítales híbridos.
● Orbítales Híbridos: son orbítales atómicos que se que se obtienen cuando dos o más orbítales no
equivalentes, del mismo átomo, se combinan preparándose para la formación del enlace covalente.
● Orbítales moleculares. Orbítales producto de las interacciones de los orbítales atómicos de los átomos
que se unen.
● Solapamientos de Orbítales. Interacción de orbítales de átomos diferentes en la misma región del
espacio.
● Plana Trigonal. Ocurre si hay tres pares de electrones en la capa de valencia de un átomo, el cual
tienden a estar acomodados en un plano, dirigidos hacia los vértices de un triángulo de lados iguales
(triángulo equilátero), las regiones del espacio ocupadas por pares electrónicos están dirigidas a ángulos
de 120º uno al otro.
● Plana Cuadrada. Termino usado para describir las moléculas e iones poliatómicas que poseen un
átomo en el centro y cuatro átomos en las esquinas de un cuadrado.
● Plasma. Mezcla de iones y electrones, como en una descarga eléctrica. En ocasiones el plasma se ha
considerado el cuarto estado de la materia.
● Hielo cuántico. El hielo cuántico es un estado en el que la materia está tan próxima al cero absoluto (0
ºK) que el movimiento atómico disminuye: Todos los núcleos se colapsan en un "superátomo" alrededor
del cual giran todos los electrones. Se ha considerado el quinto estado de la materia.
9. Conclusión
Un enlace iónico es una fuerza de atracción enérgica que mantienen unidos los iones. Dicho enlace se
puede formar entre dos átomos por la transferencia de electrones de la capa de valencia del otro. Los
cationes monoatómicos de los elementos tienen cargas iguales al número de grupos.
Un enlace covalente es una energía fuerza de atracción que mantiene unidos a dos átomos por la
comparición de sus electrones enlazantes son atraídos simultáneamente hacia ambos núcleos atómicos y
pasan una parte del tiempo cerca de un átomo y otra parte del tiempo cerca del otro. Sin un par de
electrones no es compartido igualmente, el enlace es polar. Esta polaridad es el resultado de la diferencia
que hay en las electronegatividades de los átomos para atraer hacia ellos los electrones enlazantes.
La regla del octeto predice que los átomos forman suficientes enlaces covalentes para rodearse de ocho
electrones cada uno. Existen excepciones para la regla del octeto, en particular para los compuestos
covalentes de berilio, para los elementos del grupo 3A y para los elementos del tercer periodo y
subsecuentes de la tabla periódica.
Linus Pauling desarrolló un método para determinar las electronegatividades relativas de la mayoría de
los elementos. Esta propiedad (electronegatividad) permite distinguir el enlace covalente polar del enlace
covalente no polar.
Las formulas de Lewis son representaciones sencillas de los electrones de la capa de valencia de los
átomos en las moléculas y los iones. se pueden aplicar reglas sencillas para dibujar estas formulas.
Aunque los átomos de la formula de Lewis satisfacen con frecuencia la regla del octeto, no son poco
comunes las excepciones a esta regla. Se pueden obtener las formulas de Lewis al seguir las reglas para
la escritura, el concepto de Carga formal con frecuencia ayudara a decidir cual de las varias formulas de
Lewis da la mejor descripción de una molécula o ion.
La Geometría molecular se refiere a la ordenación de los átomos o núcleos en el espacio, no de los pares
http://www.monografias.com/trabajos12/quimi/quimi.shtml (18 of 19)25/05/2005 13:43:43
QUIMICA - Monografias.com
de electrones y la Geometría electrónica se refiere a la ordenación geométrica de los electrones de
valencia alrededor del átomo central.
La teoría de enlace de valencia, es una de las aplicaciones de la mecánica cuántica en el cual se forman
orbítales híbridos mediante la combinación y reacomodo de los orbítales de un mismo átomo. Todos los
orbítales híbridos tienen la misma energía y densidad electrónica y el número de orbítales híbridos es
igual al número de orbítales atómicos puros que se combinan.
La materia presenta tres estados líquido, que son líquido, sólido y gaseoso (aunque se habla de un cuarto
y quinto elemento; plasma y hielo cuántico respectivamente).
10. Bibliografía
BROWN, T. L., H.E. Y BURSTEN, B.E. (1993) . Química la ciencia central. México: Prentice-Hail.
Hispanoamericana. Quinta Edición.
Chang, Raymond. (1998). Química. México: McGraw-Hill. Sexta Edición.
Ebbing, Darrell D. (1996). Química General. México. McGraw-Hill. Quinta edición
Whitten, K. W., Davis R.E. y Peck, M. L. (1998). Química General. España: McGraw-Hill. Quinta edición
Petrucci, R. H. (1977). Química general. México: Fondo Educativo Interamericano
Páginas Wed:
www.monografías.com
www.encarta.msn.com
www.lafacu.com
Trabajo enviado por:
Laya Crispina
[email protected]
Volver al inicio | Volver arriba
Términos y Condiciones - Haga Publicidad en Monografias.com - Contáctenos
© 1997 Lucas Morea / Sinexi S.A.
http://www.monografias.com/trabajos12/quimi/quimi.shtml (19 of 19)25/05/2005 13:43:43
JUNIOR COLLEGE - Monografias.com
Regístrese
Compare
precios
Buscar:
Nuevos
Consulte
a los
expertos
Publicar
Toolbar
Foros
Ayuda
Recomendar
Buscar
Recomendamos:
Barra de
herramientas
gratuita
Avanzada
Agregar a Recomendar
favoritos
Enlaces Químicos
Indice
1. Introducción
2. Tipos De Enlace
3. Valencia
4. Resonancia
5. Conclusiones
6. Bibliografía
1. Introducción
http://www.monografias.com/trabajos7/enqui/enqui.shtml (1 of 7)25/05/2005 13:44:17
Imprimir
Bajar
Trabajo
(Descargar)
JUNIOR COLLEGE - Monografias.com
Cuándo hacemos leche en polvo, o cuando le echamos azúcar al té, ¿desaparece la leche o el azúcar?
Claro que no, uno respondería que estos se están disolviendo en el agua. Pero en realidad, ¿Qué
sucede? ¿Por qué sucede? Son hechos tan comunes que se nos olvida hacernos estas preguntas. En
realidad lo que sucede es que la leche y el azúcar son solutos, que serán disueltos en un solvente como
el agua. Pero ¿qué es lo que en realidad sucede? ¿Qué son los solutos y los solventes? Bueno estas
preguntas serán respondidas en este informe.
Este informe habla de enlaces y soluciones, pero, para entenderlos hay que empezar por conocer el
significado de estas palabras, para luego poder pasar a un lenguaje más técnico. Enlace significa unión,
un enlace químico es la unión de dos o más átomos que se han unido con un solo fin, alcanzar la
estabilidad, tratar de parecerse al gas noble más cercano, para la mayoría de los elementos alcanzar
ocho electrones en su último nivel. Las soluciones son mezclas homogéneas, no se distinguen sus
componentes como separados, entre al menos dos reactantes un soluto, que es él que será disuelto, y un
solvente, que es él que disolverá al soluto.
¿Qué mantiene unidos a los Átomos?
Un concepto básico en química es el estudio de cómo los átomos forman compuestos. La mayoría de los
elementos que conocemos existen en la naturaleza formando agrupaciones de átomos iguales o de
distintos tipos, enlazados entre sí.
Todos los compuestos están constituidos por dos o más átomos de un o más elementos diferentes,
unidos entre sí por enlaces ya sean estos iónicos o covalentes.
2. Tipos De Enlace
Si los átomos enlazados son elementos metálicos, el enlace se llama metálico. Los electrones son
compartidos por los átomos, pero pueden moverse a través del sólido proporcionando conductividad
térmica y eléctrica, brillo, maleabilidad y ductilidad. Véase Metales.
Si los átomos enlazados son no metales e idénticos (como en N2 o en O2), los electrones son
compartidos por igual por los dos átomos, y el enlace se llama covalente apolar. Si los átomos son no
metales pero distintos (como en el óxido nítrico, NO), los electrones son compartidos en forma desigual y
el enlace se llama covalente polar -polar porque la molécula tiene un polo eléctrico positivo y otro
negativo, y covalente porque los átomos comparten los electrones, aunque sea en forma desigual. Estas
sustancias no conducen la electricidad, ni tienen brillo, ductilidad o maleabilidad.
Cuando una molécula de una sustancia contiene átomos de metales y no metales, los electrones son
atraídos con más fuerza por los no metales, que se transforman en iones con carga negativa; los metales,
a su vez, se convierten en iones con carga positiva. Entonces, los iones de diferente signo se atraen
electrostáticamente, formando enlaces iónicos. Las sustancias iónicas conducen la electricidad cuando
están en estado líquido o en disoluciones acuosas, pero no en estado cristalino, porque los iones
individuales son demasiado grandes para moverse libremente a través del cristal.
Cuando los electrones son compartidos simétricamente, el enlace puede ser metálico o covalente apolar;
si son compartidos asimétricamente, el enlace es covalente polar; la transferencia de electrones
proporciona enlace iónico. Generalmente, la tendencia a una distribución desigual de los electrones entre
http://www.monografias.com/trabajos7/enqui/enqui.shtml (2 of 7)25/05/2005 13:44:17
JUNIOR COLLEGE - Monografias.com
un par de átomos aumenta cuanto más separados están en la tabla periódica.
Para la formación de iones estables y enlace covalente, la norma más común es que cada átomo consiga
tener el mismo número de electrones que el elemento de los gases nobles -grupo 18- más cercano a él
en la tabla periódica. Los metales de los grupos 1 (o IA) y 11 (o IB) de la tabla periódica tienden a perder
un electrón para formar iones con una carga positiva; los de los grupos 2 (o IIA) y 12 (o IIB) tienden a
perder dos electrones para formar iones con dos cargas positivas, y de la misma forma los de los grupos
3 (o IIIB) y 13 (o IIIA) tienden a formar iones con tres cargas positivas. Por la misma razón, los halógenos,
grupo 17 (o VIIA), tienden a ganar un electrón para formar iones con una carga negativa, y los elementos
del grupo 16 (o VIA) a formar iones con dos cargas negativas. Sin embargo, conforme aumenta la carga
neta de un ion, éste tiene menos estabilidad, así que las cargas aparentemente mayores serían
minimizadas compartiendo los electrones covalentemente.
El enlace covalente se forma cuando ambos átomos carecen del número de electrones del gas noble más
cercano. El átomo de cloro, por ejemplo, tiene un electrón menos que el átomo de argón (17 frente a 18).
Cuando dos átomos de cloro forman un enlace covalente compartiendo dos electrones (uno de cada
átomo), ambos consiguen el número 18 del argón (Cl~~Cl). Es común representar un par de electrones
compartido por medio de un guión entre los átomos individuales: Cl~~Cl se escribe Cl•Cl.
Otros Elementos De Un Enlace
Iones
Los átomos están constituidos por el núcleo y la corteza y que el número de cargas positivas del primero
es igual al número de electrones de la corteza; de ahí su electronegatividad. Si la corteza electrónica de
un átomo neutro pierde o gana electrones se forman los llamados iones.
Los iones son átomos o grupos atómicos que tienen un número de electrones excesivo o deficiente para
compensar la carga positiva del núcleo.
En el primer caso los iones tienen carga negativa y reciben el nombre de aniones, y en el segundo están
cargados positivamente y se llaman cationes.
Elementos electropositivos y electronegativos
Se llaman elementos electropositivos aquellos que tienen tendencia a perder electrones transformándose
en cationes; a ese
grupo pertenecen los metales.
Elementos electronegativos son los que toman con facilidad electrones transformándose en aniones; a
este grupo pertenecen los metaloides.
Los elementos más electropositivos están situados en la parte izquierda del sistema periódico; son los
llamados elementos alcalinos. A medida que se avanza en cada período hacia la derecha va
disminuyendo el carácter electropositivo, llegándose, finalmente, a los alógenos de fuerte carácter
electronegativo.
Electrones de valencia
La unión entre los átomos se realiza mediante los electrones de la última capa exterior, que reciben el
nombre de electrones de valencia.
La unión consiste en que uno o más electrones de valencia de algunos de los átomos se introduce en la
esfera electrónica del otro.
http://www.monografias.com/trabajos7/enqui/enqui.shtml (3 of 7)25/05/2005 13:44:17
JUNIOR COLLEGE - Monografias.com
Los gases nobles, poseen ocho electrones en su última capa, salvo el helio que tiene dos. Esta
configuración electrónica les comunica inactividad química y una gran estabilidad.
Todos los átomos tienen tendencia a transformar su sistema electrónico y adquirir el que poseen los
gases nobles, porque ésta es la estructura más estable.
Valencia electroquímica
Se llama valencia electroquímica al número de electrones que ha perdido o ganado un átomo para
transformarse en ion. Si dicho número de electrones perdidos o ganados es 1, 2, 3, etc. Se dice que el ion
es monovalente, bivalente, trivalente, etc.
Esta Tabla Ejemplifica Los Tipos De Enlace
3. Valencia
En la mayoría de los átomos, muchos de los electrones son atraídos con tal fuerza por sus propios
núcleos que no pueden interaccionar de forma apreciable con otros núcleos. Sólo los electrones del
'exterior' de un átomo pueden interaccionar con dos o más núcleos. A éstos se les llama electrones de
valencia.
El número de electrones de valencia de un átomo es igual al número de su familia (o grupo) en la tabla
periódica, usando sólo la antigua numeración romana. Así, tenemos un electrón de valencia para los
elementos de los grupos 1 (o IA) y 11 (o IB); dos electrones de valencia para los elementos de los grupos
http://www.monografias.com/trabajos7/enqui/enqui.shtml (4 of 7)25/05/2005 13:44:17
JUNIOR COLLEGE - Monografias.com
2 (o IIA) y 12 (o IIB), y cuatro para los elementos de los grupos 4 (o IVB) y 14 (o IVA). Todos los átomos
de los gases nobles excepto el helio (o sea: neón, argón, criptón, xenón y radón) tienen ocho electrones
de valencia. Los elementos de las familias (grupos) cercanas a los gases nobles tienden a reaccionar
para adquirir la configuración de ocho electrones de valencia de los gases nobles. Esto se conoce como
la regla del octeto de Lewis, que fue enunciada por el químico estadounidense Gilbert N. Lewis.
El helio es el único que tiene una configuración de dos electrones de valencia. Los elementos cercanos al
helio tienden a adquirir una configuración de valencia de dos: el hidrógeno ganando un electrón, el litio
perdiéndolo, y el berilio perdiendo dos electrones. El hidrógeno suele compartir su único electrón con un
electrón de otro átomo formando un enlace simple, como en el cloruro de hidrógeno, H•Cl. El cloro, que
originalmente tiene siete electrones de valencia, pasa a tener ocho. Esos electrones de valencia pueden
representarse como:
o
. Las estructuras de N2 y CO2 se pueden expresar ahora como
o
y
o . Estas estructuras de Lewis muestran la configuración de ocho electrones
de valencia de los gases nobles para cada átomo. Probablemente el 80% de los compuestos covalentes
pueden ser representados razonablemente por las estructuras electrónicas de Lewis. El resto, en especial
aquellos que contienen elementos de la parte central de la tabla periódica, no puede ser descrito
normalmente en términos de estructuras de gases nobles.
Soluciones
Todas las soluciones están formadas por al menos un soluto y un solvente. Las soluciones son mezclas
homogéneas entre solutos y solventes. El soluto es el que se disuelve en el solvente. El solvente debe
encontrarse siempre en mayor cantidad, excepto el agua.
Conductibilidad
Ningún solvente puro conduce la corriente eléctrica. Y ningún soluto puro conduce la corriente eléctrica, a
menos que este en estado líquido. Pero una solución puede conducir la corriente. Para que esto suceda,
la solución debe estar formada por un soluto electrolito (es decir, compuestos formado por enlaces
iónicos no orgánicos) y por un solvente polar como el agua, lo cual forma una solución electrolita.
Las soluciones de NaCl (sal común) o CuSO4 (sulfato cúprico) en agua conducen la electricidad a toda su
intensidad. Pero, el acido acetico o vinagre común (CH3-COOH) al disolverse en agua produce iones los
cuales pueden conducir la electricidad, pero solo levemente.
4. Resonancia
Una extensión interesante de la estructura de Lewis, llamada resonancia, se encuentra por ejemplo en los
iones nitrato, NO3-. Cada N tiene originalmente cinco electrones de valencia, cada O tiene seis, y uno
más por la carga negativa, suman un total de 24 (5 + (3 × 6) + 1) electrones para cuatro átomos. Esto
proporciona un promedio de seis electrones por átomo, por tanto, si se aplica la regla del octeto de Lewis,
debe producirse un enlace covalente. Se sabe que el átomo de nitrógeno ocupa una posición central
rodeado por los tres átomos de oxígeno, lo que proporcionaría una estructura de Lewis aceptable,
excepto porque existen tres estructuras posibles. En realidad, sólo se observa una estructura. Cada
estructura de resonancia de Lewis sugiere que debe haber dos enlaces simples y uno doble. Sin
embargo, los experimentos han demostrado que los enlaces son idénticos en todos los sentidos, con
propiedades intermedias entre las observadas para los enlaces simples y los dobles en otros
compuestos. La teoría moderna sugiere que una estructura de electrones compartidos localizados, tipo
http://www.monografias.com/trabajos7/enqui/enqui.shtml (5 of 7)25/05/2005 13:44:17
JUNIOR COLLEGE - Monografias.com
Lewis, proporcionaría la forma y simetría general de la molécula más un grupo de electrones
deslocalizados (representados por puntos) que son compartidos por toda la molécula.
Definiciones
Enlace químico: fuerza entre los átomos que los mantiene unidos en las moléculas. Cuando dos o más
átomos se acercan lo suficiente, puede producirse una fuerza de atracción entre los electrones de los
átomos individuales y el núcleo de otro u otros átomos. Si esta fuerza es lo suficientemente grande para
mantener unidos los átomos, se dice que se ha formado un enlace químico. Todos los enlaces químicos
resultan de la atracción simultánea de uno o más electrones por más de un núcleo.
Enlace iónico: concepto de enlace químico. Enlace iónico. Estructuras cristalinas de los compuestos
iónicos. Límites de estabilidad. Energía de red. Ciclo de born-haber. Propiedades generales de los
compuestos iónicos.
Enlace covalente: introducción. Teoría de Lewis. Teoría del enlace de valencia. Carácter dirigido del
enlace covalente. Orbitales híbridos. Resonancia. Teoría de repulsión de pares de electrones de la capa
de valencia. Teoría de orbitales moleculares. Moléculas diatómicas homo y heteronucleares. Transición
entre el enlace iónico y covalente: electronegatividad y polarización.
Enlace metálico: propiedades generales de los metales. Estructuras de los metales. Teoría de enlace.
Conductores aislantes y semiconductores.
Enlaces intermoleculares: evidencias. Enlaces por fuerzas de van del waals: orientación, inducción y
dispersión. Enlaces de hidrógeno. Propiedades de los compuestos covalentes.
Tipos de enlace
En la unión o enlace de los átomos pueden presentarse los siguientes casos:
1.
2.
3.
4.
Enlace iónico, si hay atracción electrostática.
Enlace covalente, si comparten los electrones.
Enlace covalente coordinado, cuando el par de electrones es aportado solamente por uno de ellos.
Enlace metálico, so los electrones de valencia pertenece en común a todos los átomos.
5. Conclusiones
Bueno, como hemos visto al hacer jugo o endulzar al té se producen una serie de reacciones químicas
que nunca hubiéramos imaginado. Los enlaces, las soluciones, la fractura de enlaces y la formación de
otros, ¿quien lo hubiera imaginado? Pero ahora que sabemos todo esto, cuando nos sentemos a
tomarnos un té ya no se nos olvidara pensar en esto.
Bueno hasta aquí llega nuestro informe, y con estos ejemplos de lo aprendido concluimos este informe:
http://www.monografias.com/trabajos7/enqui/enqui.shtml (6 of 7)25/05/2005 13:44:17
JUNIOR COLLEGE - Monografias.com
6. Bibliografía
Enciclopedia Microsoft Encarta 2000
Química II Educación Media Editorial Santillana
Y en las siguientes páginas de Internet:
http://www.ur.mx/cursos/diya/quimica/jescobed/esteq2.htm
http://www.ur.mx/cursos/diya/quimica/jescobed/estequio.htm
http://www.oei.org.co/fpciencia/art08.htm
Trabajo enviado por:
Santiago Moscoso
Diego Rodríguez
[email protected]
Volver al inicio | Volver arriba
Términos y Condiciones - Haga Publicidad en Monografias.com - Contáctenos
© 1997 Lucas Morea / Sinexi S.A.
http://www.monografias.com/trabajos7/enqui/enqui.shtml (7 of 7)25/05/2005 13:44:17
Minerales - Monografias.com
Regístrese
Compare
precios
Buscar:
Nuevos
Consulte
a los
expertos
Publicar
Toolbar
Foros
Ayuda
Recomendar
Buscar
Recomendamos:
Barra de
herramientas
gratuita
Avanzada
Agregar a Recomendar
favoritos
Imprimir
Bajar
Trabajo
(Descargar)
Propiedades físicas de los minerales.
Indice
1. Introducción
2. Grados de lustre.
3. Solubilidad.
4. Bibliografía
1. Introducción
Se ha demostrado que la forma geométrica de un mineral cristalizado es la expresión externa de su
estructura molecular interna. La estructura interna controla muchas de las propiedades físicas enlistadas.
Todas las propiedades de un mineral deben depender del carácter de los elementos de los que ésta
compuesto. (1)
La palabra cristal se deriva de el nombre dado por los antiguos griegos a los hermosos cristales de
cuarzo de seis caras, la belleza depende de una combinación de cualidades tales como el color, la forma,
la proporción o apariencia agradable a la vista, esto induce el concepto de simetría de la forma, que es
muy importante en el estudio de los cristales.
Un mineral es una sustancia inorgánica que tiene dos características fundamentales:
Un mineral posee una composición química definida, la cual puede variar de ciertos límites.
● Un mineral posee una disposición ordenada de átomos de los elementos de que está compuesto, y
esto da como resultado el desarrollo de superficies planas conocidas como caras. Si el mineral ha sido
capaz de crecer sin interferencia, las caras pueden intersecarse para producir formas geométricas
características, conocidas como cristales. (3)
●
http://www.monografias.com/trabajos10/fimi/fimi.shtml (1 of 13)25/05/2005 13:44:41
Minerales - Monografias.com
Dureza. La resistencia ofrecida por un mineral a la abrasión, o al raspado. Es de gran importancia en el
reconocimiento rápido de los minerales, pues una dureza aproximada de una muestra se puede
determinar fácilmente. (1). La dureza de un mineral depende de su composición química y también de la
disposición estructural de sus átomos. Cuanto más grandes son las fuerzas de enlace, mayor será la
dureza del mineral (3). La dureza se mide por la resistencia que ofrece una superficie a la abrasión (1).
Las distintas caras de un cristal difieren en dureza, y la misma cara también puede diferir cuando se haya
en distintas direcciones. El grado de facilidad con la que determinado mineral se raya, es una medida de
su cohesión molecular; y en los casos en que la cohesión varía, la dureza también. (1).
La dureza de un mineral se determina por su situación aproximada en la escala de Mohs. El mineral de
mayor dureza rayará al más blando. Dos minerales con la misma dureza no se rayarán entre sí, si lo
hacen, será de una forma muy ligera. Si el cuarzo raya un mineral y el mineral raya al feldespato se dice
que ese mineral tiene una dureza de 6.5.
Es posible determinar la dureza de algunos minerales en el campo con simplemente rasparlos con la uña
donde presentan una dureza hasta de 2.5 en la escala de Mohs, los que se raspan con una moneda de
cobre alcanzan una dureza de 3; los minerales raspados con una hoja de navaja tienen una dureza de 5.5
como máximo, los que son raspados con un vidrio de ventana tienen una dureza de 5.5, los dos últimos
se consideran los mas duros, el primero es posible rayarlo con la lámina de raya, tiene una dureza de 6.5
y el último es rayado solamente con un filo de acero. Teniendo así una dureza entre 6 y 7. (2)
Los joyeros utilizan lápices especiales que contienen puntas de los minerales de la escala antes
mencionada, con el fin de verificar si es una gema auténtica o en su defecto una genuina imitación.
Densidad. La densidad de un mineral es su masa por unidad de volumen y es necesario especificar las
unidades usadas, por ejemplo kilogramos por metro cúbico o libras por pie cuadradas. La densidad de un
mineral puede obtenerse pesando directamente el ejemplar, primero en el aire luego en el agua. Si el
espécimen es suficientemente grande, puede suspenderse por un hilo de nylon de gancho de una
balanza de precisión. El ejemplar se pesa en el aire y luego se sumerge en un recipiente con agua. La
densidad se obtiene dividiendo el peso en el aire entre la perdida de peso en el agua (3). Uno de los
instrumentos más sencillos de utilizar es la balanza de Jolly. Este instrumento consiste de un resorte
espiral en cuyo extremo inferior están sostenidos dos platillos o canastillas de alambre, sobre la
plataforma móvil se coloca un vaso lleno de agua y se procede a hacer la lectura. También existe el
picnómetro, éste se usa cuando son minerales pequeños. El picnómetro es una pequeña botella que tiene
tapón esmerilado que cierra perfectamente y termina en un tubo con una abertura muy fina. La botella se
llena con agua destilada, se inserta el tapón y el agua se que derrama se elimina cuidadosamente con un
trapo y entonces se pesa (1).
Fractura. La fractura de un mineral se refiere al carácter de la superficie obtenida cuando sustancias
http://www.monografias.com/trabajos10/fimi/fimi.shtml (2 of 13)25/05/2005 13:44:41
Minerales - Monografias.com
cristalinas se rompen, en direcciones distintas de aquellas en las que puede tener lugar una exfoliación o
ésta es muy débil, proporcionan superficies de fractura muy fáciles.
Concordea.- las superficies se curvan y toman una forma de concha ejemplo el cuarzo.
Lisa.- las superficies de fractura son lisas o casi lisas, es decir, que aproximadamente planas. Ejemplo
calizas.
Irregulares.- las superficies son más desiguales. Ejemplo la rodaita. Las superficies de fractura tienen
muchos puntos agudos y bastantes irregulares.
Astillosa.-el mineral se rompe en astillas o fibras. Ejemplo pectolita.
Terrosa.- fractura irregular característica de las sustancias terrosas, o tiza como caolín. (2).
Las fracturas están en relación con el punto de aplicación de la fuerza y tienden a formar superficies
curvas que se describen como concoidales. Los hombres primitivos descubrieron que el pedernal podría
romperse en hojas delgadas limitadas por superficies concoidales , que se intersecaban formando bordes
muy filosos. (3).
Crucero. Es la tendencia de un mineral cristalizado a romperse en ciertas direcciones definidas,
produciendo superficies más o menos lisas. Es obvio que un valor mínimo de cohesión en la dirección de
la fractura fácil, es decir, normal al propio plano del crucero. Un cuerpo amorfo necesariamente no puede
mostrar crucero. El crucero es el mismo en todas direcciones en un cristal en el que son
cristalográficamente idénticas; por ejemplo, si existe un crucero paralelo a un plano del octaedro en una
sustancia isométrica, debe ocurrir también y con igual facilidad, paralelo a los otros tres planos
octaédricos. Se ha considerado comúnmente que los planos del crucero, son aquellos de la estructura
atómica en los que los átomos están colocados más cerca unos de otros, mientras la distancia entre los
planos sucesivos es relativamente grande, pero no pueden ser los únicos factores que los controlan. El
crucero aparentemente depende no solo de la posición geométrica de los átomos constituyentes, sino
también de sus cargas eléctricas. Las fuerzas eléctricas que existen entre las diferentes capas, en la
estructura atómica, son de gran importancia y el crucero verifica cuando las fuerzas de atracción son
mínimas.
El crucero se define 1. de acuerdo con su dirección, como cúbico, octaédrico, romboédrico, básico,
prismático, etc. También 2 de acuerdo con la facilidad con que se obtiene y la tersura de la superficie
producida. Se dice que es perfecta o eminente, cuando se obtiene con gran facilidad, produciendo unas
superficie lustrosa y tersa, como en la mica, el topacio, la calcita. Los grados inferiores de crucero se
denominan precisos, imprecisos o imperfectos, interrumpidos, en trazas, difíciles.
En algunos casos el crucero que no se observa ordinariamente puede producirse por un golpe fuerte o
por un cambio repentino de temperatura. (1).
http://www.monografias.com/trabajos10/fimi/fimi.shtml (3 of 13)25/05/2005 13:44:41
Minerales - Monografias.com
Raya. Es el color del polvo fino de un cristal y frecuentemente se ha usado en la determinación de
minerales. Aunque el color de los minerales varíe, el de la raya suele ser constante. El color de la raya se
determina por corte, limado o rasguño. Una raya de longitud de ¼ de pulgada es generalmente suficiente
para determinar su color. La lámina de raya no se puede emplear con minerales de una dureza de 7 o
más, pues estos minerales son más duros que la lámina. Cuando no se puede emplear la lámina de raya
ésta se puede determinar estrujando una pequeña cantidad de muestra hasta hacerla polvo fino y
examinado para ver su color, sin ayuda o con una lente de mano sobre un fondo claro tal como un trozo
de papel o una uña. Algunos minerales que tienen el mismo color, tienen rayas diferentes. Los siguientes
tres minerales de hierro pueden ser todos negros, pero se distinguen con facilidad por sus rayas
respectivas: hematita ( Fe2O3) pardo rojizo; goethita (HFeO2) pardo amarillento; magnetita (FeFe2O4)
negra.
La raya de frote se produce cuando se frotan los minerales blandos contra porcelana sin brillo. Esta raya
es útil para distinguir el grafito que tiene una raya negra brillante, de la molibdenita que tiene una raya
verdosa. (2).
Hábito. Cuando los cristales crecen sin interferencias, adoptan formas relacionadas con su estructura
http://www.monografias.com/trabajos10/fimi/fimi.shtml (4 of 13)25/05/2005 13:44:41
Minerales - Monografias.com
interna. La forma general de los cristales de un mineral se llama hábito y algunas veces es útil para la
identificación del mismo. Existen varios tipos entre ellos tenemos:
columnar: alargado en una dirección semejante a las columnas. Los cristales de coridón y los de
cuarzo generalmente tienen hábito columnar.
● Prismático: alargado en una dirección como los cristales de andalucita.
● Tabular: alargado en una dirección y con bordes finos como la estibinita. Los cristales de hornblenda
generalmente tienen hábito laminar.
● Foliado: similar a las hojas, que fácilmente se separan en hojas como la muscovita.
● Brotoidal: grupo de masas globulares.
● Reniforme: fibras radiadas, que terminan en superficies redondas.
● Granular: el mineral está formado por un agente de granos.
● Masivo: compacta, irregular, sin ningún hábito sobresaliente. (3)
●
Es posible clasificar las formas de los cristales de la siguiente manera:
Cristales Agrupados de cristales ej. Calcita
I. Cristaloides estructura cristalina
Granos o partículas agregados cristalinos
Irregulares ej, mármol.
II. colidea y geles. Estructura amorfa masas ej. Ópalo
El término cristaloide se refiere a cristales asilados o agregados a grupos de cristales, o a partículas que
tienen estructura cristalina. Algunas de las formas en que se presentan a la naturaleza:
acicular: compuesta de delicados y finos cristales en forma de aguja, ej. Natronita.
● Amigdaloide: masa de minerales en forma de almendra, que aparecen en cavidades en las lavas. Ej.
cobre.
● Arborescente: agregados de cristales en forma de árbol o rama. Ej. Cobre.
● Hojoso: estructura tabular o en lámina, las partes individuales se parecen a hojas de cuchillo o a
hierba. Las hojas pueden ser paralelas o divergentes. Ej. Distena.
● Botoidal o arracimado: masas esféricas muy unidas, que se parecen a un manojo de uvas. Ej.
Psilomelana.
● Capilar: compuesto de cristales muy finos o en forma de cabellos.
● Celular: poroso, como una esponja.
● Clástico: hecho de fragmentos.
● Columnar: compuesto de columnas o fibras gruesas, con frecuencia en grupos paralelos.
● Concéntrico: capas esféricas alrededor de un centro común, similar a las capas de una cebolla. Ej.
Ágata.
● Concrecional: masas redondas o nodulares. Ej. Pedernal.
● Dendrílico: estructura en forma de rama o de helecho. Ej. Manganita.
● Drúsido: superficie basta debido a un gran número de cristales pequeños muy apretados. Ej. Sheelita.
● Fibrosos: se compone de fibras o filamentos finos. Ej. waverlita.
● Filiforme: compuesto de alambres finos, con frecuencia retorcidos o curvados. ej. plata.
● Foliados: hecho de lámina u hojas que se separan con facilidad.
● Globular: esférico o casi esférico.
● Granular: compuesto de granos muy finos, que pueden ser gruesos o finos.
● Lamelar: hecho de láminas o capas delgadas.
● Lenticular: en forma de lente.
●
http://www.monografias.com/trabajos10/fimi/fimi.shtml (5 of 13)25/05/2005 13:44:41
Minerales - Monografias.com
●
●
●
●
●
●
●
●
●
●
●
●
●
●
Mamelar: masas grandes y redondas, mayores que racimos.
Micáceo: compuesto de láminas o escamas muy delgadas, como las de la mica.
Nodular: masas redondas de forma irregular. Ej. Pedernal.
Olítico: compuesto de pequeñas partículas redondas del tamaño de huevos de pez. Ej. Piedra caliza.
Anerocristalino. Cristales o cristalinos muy toscos. Ej. ortosa.
Pisolítica: compuesto de partículas redondas del tamaño de guisantes o perdigones. Ej. bauxita.
Plumoso: estructura de pluma, observa a veces la mica.
Reniforme: compuesto de masas grandes, redondas, que se parecen a un riñón. Ej. Hematita.
Escamoso: compuesto de escamas o láminas delgadas.
Reticulado: compuesto de fibras que se cruzan en mallas, como en una red. Ej. Plata.
Forma de haz: agregados que se parecen a un haz de trigo. Ej. Estilbita.
Estalacnítico: masas cilíndricas o cónicas que se parecen a carámbanos. Ej. Estalactita.
Estelar: cristales o fibras radiantes que centellan como las estrellas.
Tabular: compuesto de superficies anchas y lisas, en forma de tableta. Ej. Celestina. (2)
Brillo. El brillo de un mineral es la apariencia de su superficie a la luz reflejada, y es una propiedad de
fundamental importancia para su reconocimiento. El brillo es función de la transparencia, refractividad y
estructura de un mineral. Hay dos tipos principales de brillo: metálico y no metálico.
El brillo metálico lo tienen los metales y los minerales de apariencia metálica. Las sustancias que tienen
brillo metálico son opacas o casi opacas y bastante pesadas, la galeana y la pirita son ejemplos de ello.
Todas las demás clases de brillo son aspectos diversos del brillo no metálico.
Vítreo: brillo de l cristal o del cuarzo.
● Adamantino: sumamente brillante de los minerales con elevado índice de refracción, como el diamante
y la piromorfita.
● Resinoso: brillo o apariencia de resina. Perfectamente apreciable en la esfalerita o blenda.
● Graso: apariencia de una superficie aceitada. Ejemplo, el nefelino.
● Nacarado: similar al brillo de una madre perla. Normalmente visible en los minerales de estructura
laminar o lisa y en aquellos que tienen hendiduras pronunciadas como el talco por ejemplo.
● Mate: sin brillo; buenos ejemplo son la creta y el caolín. Llamado también brillo terroso.
●
A veces se usan los nombres esplendoroso, resplandeciente, reluciente y centellante. Éstos están
relacionados con la intensidad o cantidad de luz reflejada.
Cuando el brillo no es metálico ni no metálico solo se llama metaloideo o submetálico. (2).
http://www.monografias.com/trabajos10/fimi/fimi.shtml (6 of 13)25/05/2005 13:44:41
Minerales - Monografias.com
Lustre. Naturaleza del lustre. Una variación en la cantidad de luz reflejada produce diferentes grados de
intensidad de lustre; una variación en la naturaleza de la superficie reflejante produce clases de lustre.
Clases de lustre: las clases de lustre reconocidas son las siguientes:
● metálico: no se dice que un mineral tenga lustre metálico a menos que sea opaco en el sentido
mineralógico, esto es, que no se trasmita luz alguna en los bordes de las astillas delgadas.
● No metálico:
a. Adamantino: el lustre del diamante. Cuando también es submetálico, se denomina
b.
c.
d.
e.
f.
adamatinometálico, como la cerusita pirargirita. El lustre adamantino pertenece a las sustancias de
alto índice de refracción.
Vítreo: el lustre del vidrio roto. Un lustre vítreo imperfecto se denomina subvítreo. Los lustre vítreo
y subvítreo son los más comunes en el reino mineral. El cuarzo posee el primero en grado
prominente, la calcita con frecuencia el último.
Resinoso. Lustre de las resinas amarillas, como el ópalo y algunas variedades amarillas de la
esfalerita.
Grasoso. Lustre de vidrio aceitoso. Este es casi un lustre resinoso, pero con frecuencia es muy
distinto, como la nefelita.
Perlino. Como perla, como el talco, brucita, estibita, etc. Cuando ésta unido a submetálico, como
el hipersteno, se usa el término perlino metálico.
Sedoso. Como seda, es el resultado de una estructura fibrosa. Ejemplo calcita fibrosa.
2. Grados de lustre.
Los grados de intensidad de lustre se clasifican como sigue:
1. esplendente: refleja con brillantez y da imágenes bien definidas como la hematita, la casiterita.
2. resplandeciente. Que produce una imagen por reflexión, pero no bien definida, como la celestita.
3. centellante. Que tiene una reflexión general de la superficie, pero sin imagen como talco,
calcopirita.
4. destellante. Que tiene una reflexión imperfecta y aparentemente de puntos sobre la superficie
como el pedernal, la calcedonia. (1)
Se dice que un mineral es mate cuando carece de lustre. Ahora tanto el brillo como el lustre de los
minerales depende mucho de la incidencia de la luz en las caras del mineral, pues puede darnos
diferentes lustres y brillos un mismo mineral por ejemplo la apofilita.
Color. El color de las rocas despertó el hombre el deseo por el manejo de los pigmentos, los cuales usó
para realizar las pinturas rupestres en cuevas, mismas que formaban parte de los ritos mágicos.
El color es una de las características de los minerales más llamativas y generalmente es la primera
propiedad observada en los minerales. Generalmente el color no es una propiedad confiable para la
identificación de un mineral. (3)
Algunos minerales tiene color constante y se llaman idiocromáticos. Otros tienen colores que varían
mucho. Esta variación se debe a la presencia de pigmentos, inclusiones y otras impurezas. Dichos
minerales se llaman alocromáticos.
En los minerales idiocromáticos el color es una propiedad inherente pues constituye un agente de
pigmentación, buenos ejemplos son azufre amarillo, malaquita, verde, magnetita negra. En los minerales
http://www.monografias.com/trabajos10/fimi/fimi.shtml (7 of 13)25/05/2005 13:44:41
Minerales - Monografias.com
alocromáticos, el color puede variar mucho. Estos minerales, cuando son puros, no tienen color o son
blancos. Esta variación se debe a las impurezas de pigmentación en las partículas submicroscópicas o a
inclusiones de otros minerales coloreados. Por ejemplo el cuarzo puro no tiene color. (2). El pigmento de
los minerales alocromáticos se distribuye en el mineral de forma irregular, formando betas o machas, o
bien trazos gruesos de color.
La sensación de color depende, en el caso de a luz monocromática, solamente de la longitud de las
ondas de luz que llegan a la vista. Si la luz consiste de varias longitudes de onda es, al efecto combinado
de éstas, a lo que se debe la sensación de color. El color de un cuerpo depende de la absorción selectiva
que se ejerce sobre la luz trasmitida o reflejada por él. El color que percibe la vista es el resultado de la
mezcla de las ondas que no se han absorbido.
Variedades de color.
La variedad de colores metálicos reconocidos son las siguientes:
1. rojo cobre: cobre nativo. 2. amarillo bronce: pirrotita. 3. amarillo latón: calcopirita. 4. amarillo oro: oro
nativo. 5. blanco plata: plata nativa, menos claro en la arsenopirita. 6. blanco estaño: mercurio, cobaltita.
7. gris plomo: galena.
Las siguientes variaciones son variedades de colores no metálicos:
a. blanco. Blanco nieve: mármol de carrara. Blanco rojizo, blanco amarillo, blanco amarillento y
b.
c.
d.
e.
f.
g.
blanco grisáceo, todos los ilustrados por algunas variedades de calcita y cuarzo. Blanco verdoso:
talco; blanco lechoso, blanco ligeramente azuloso; algunas calcedonias.
Gris azuloso: gris tirado a azul sucio. Gris perla: mezclado con rojo y azul: cerargirita. Gris humo:
gris algo moreno: pedernal. Gris verdoso: gris con algo de verde: ojo de gato. Gris amarillento:
algunas variedades de calcita compacta. Gris cenizo: el color gris más puro.
Negro. Negro grisáceo: negro mezclado con gris, sin tintes: basalto, piedra de lidia. Negro
terciopelo: negro puro: obsidiana, turmalina negra. Negro verdoso: augita. Negro moreno: carbón
moreno, lignita. Negro azuloso: cobalto negro.
Azul. Azul negrusco: variedades oscuras de azurita. Azul celeste: un tono claro de azul brillante:
variedades pálidas de azurita, variedades brillantes de lazulita. Azul violeta: azul, mezclado con
rojo: amatista, fluorita. Azul lavanda: azul con algo de rojo y mucho gris. Azul de Prusia: azul de
Berlín: azul puro: zafiro. Azul esmalte: algunas variedades de yeso. Azul índigo: azul con negro y
verde: turmalina azul. Azul cielo: azul pálido con algo de verde, los pintores lo llaman azul montés.
Verde. Verde cardenillo: verde tirado a azul: ayunos feldespatos . verde glauco: verde con azul y
gris: algunas variedades de talco y berilo. Es el color de las hojas de celidonia. Verde monte:
verde, con mucho azul: berilio. Verde liquen: verde con algo de moreno: es el color de las hojas
del ajo. Verde esmeralda: verde intenso puro: esmeralda. Verde manzana: verde claro con algo de
amarillo: crisoparasio. Verde pasto: verde brillante con más amarillo; dialagita. Verde pistache:
verde amarillento con algo de moreno: epidota. Verde espárrago: verde pálido con mucho amarillo:
piedra de espárrago. Verde negruzco: serpentina. Verde olivo: oscuro con mucho moreno y
amarillo: crisolota. Verde aceite: el color del aceite de olivo: vidrio volcánico. Verde verderon:
verde mas claro tirado mucho a amarillo: uranita.
Amarillo. Amarillo azufre. Amarillo paja: amarillo pálido: topacio. Amarillo cera: amarillo grisáceo
con algo de moreno: esfalerita, ópalo. Amarillo miel: amarillo con algo de rojo moreno: calcita.
Amarillo limón: azufre. Amarillo ocre: amarillo moreno, ocre amarillo. Amarillo vino: topacio y
fluorina. Amarillo crema: algunas variedades de caolinita. Amarillo naranja: oropimiento.
Rojo. Rojo aurora: rojo con mucho amarillo: algún rejalgar. Rojo jacinto: rojo con amarillo y algo de
moreno: granate jacinto. Rojo ladrillo: polihalita. Rojo escarlata: rojo brillante con algún tinte de
amarillo: cinabrio. rojo sangre: rojo oscuro, con algo de amarillo: granate de Bohemia. rojo carne:
http://www.monografias.com/trabajos10/fimi/fimi.shtml (8 of 13)25/05/2005 13:44:41
Minerales - Monografias.com
feldespato. Rojo carmín: rojo puro: zafiro rubí. Rojo rosado: cuarzo rosa. Rojo carmesí: rubí. Rojo
flor de durazno: rojo con blanco y gris: lepidolita. Rojo colombiano: rojo intenso, con algo de azul:
granate. Rojo cereza: rojo oscuro, con algo de azul y moreno: espínela.
h. Moreno. Moreno rojizo: granate. Moreno clavel: moreno con rojo y algo de azul: axinita. Moreno
cabello: ópalo de madera. Moreno brócoli: moreno con azul, rojo y gris: circón. Moreno castaño:
moreno puro. Moreno amarillento: laspe. Moreno espurio: moreno amarillento con un lustre
metálico o metálico aperlado. Moreno madera: color de madera vieja casi podrida: algunos
asbestos. Moreno hígado: moreno con algo de gris y verde : jaspe. Moreno negruzco: carbón
moreno. (1).
Pátina. Fina capa uniforme que cubre un mineral metálico, como producto de su alteración superficial. Se
diferencia de una costra en que ésta puede ser frecuentemente producto aportado por las aguas. (4).
Juego o cambio de colores. Algunos minerales presentan diversos colores cuando se le da vueltas
lentamente a una muestra o cuando cambia la dirección de la observación. Se ve muy bien en la
labradorita y en el ópalo noble.
Opalescencia: consiste en reflexiones lechosas o anacaradas que salen del interior de la muestra,
como se ve en algunos ópalos. La opalescencia se observa corrientemente en muestras superficies
pulidas o redondeadas
● Contraste. El brillo variable, en forma de olas, sedoso, que presentan algunos minerales de estructura
fibrosa se llama contraste. Excelentes ejemplos son la variedad satinada de yeso o el ojo de gato. (2).
●
La expresión cambio de colores se usa cuando cada color en particular parece ocupar un espacio más
grande que el juego de colores y la sucesión producida al girar el mineral es menos rápida. (1).
Contraste. El brillo variable, en forma de olas, sedoso, que presentan algunos minerales de estructura
fibrosa se llama contraste. Excelentes ejemplos son la variedad satinada de yeso o el ojo de gato. (2).
Asterismo. Algunos minerales, como ciertos zafiros y rubíes naturales y sintéticos presentan un efecto de
luz semejante a una estrella, cuando se miran con luz reflejada. Otros minerales presentan un efecto
similar cuando se emplea luz transmitida, es decir, cuando se ve una intensa fuente de luz teniendo la
muestra muy cerca del ojo; por ejemplo, esto se ve en la flogopita. (2).
Este nombre se le da a los rayos estrellados peculiares de luz observada en ciertas direcciones en
http://www.monografias.com/trabajos10/fimi/fimi.shtml (9 of 13)25/05/2005 13:44:41
Minerales - Monografias.com
algunos minerales. En el zafiro se ve que una luz forma una estrella de seis rayos, esto se explica por la
presencia de láminas delgadas de macla arregladas simétricamente. En el caso de una pequeña flama se
debe a la presencia de diminutos cristales incluidos, arreglados también simétricamente. (1).
Magnetismo. Todos los minerales están afectados por un campo magnético. Los minerales que son
atraídos ligeramente por un imán se llaman paramagnéticos, mientras que los minerales que son
ligeramente repelidos se llaman paramagnéticos,. Las diferentes propiedades magnéticas delos minerales
permiten separarlos de otros, cuando se encuentran en mezclas. (3).
Unos cuantos minerales en su estado natural son capaces de ser atraídos por un imán de acero fuerte; se
dice que son magnéticos. Esto es visible en la magnetita, óxido magnético de hierro; también en la
pirrotita, o piritas magnéticas y en algunas variedades de platino nativo. (1).
Radioactividad. En 1896 Henri Bequerel observó que una lámina fotográfica cuidadosamente protegida
con papel negro se velaba cuando se colocaba encima o cerca de ella una sal fluorescente que contenía
uranio. Los compuestos de uranio despiden rayos penetrantes que oscurecen las láminas fotográficas, lo
mismo que los rayos X. (2). La utilidad de la radioactividad de los minerales es por medio de ella y los
aglomerados de plomo que el uranio crea a su alrededor es posible calcular la edad una determinada
zona o montaña.
Luminiscencia. Cuando en la oscuridad se calientan o se exponen a la influencia de rayos ultravioleta,
como los producidos por el arco de hierro, algunos minerales brillan y se hacen luminiscentes. Dicha
luminiscencia se produce también por la exposición a los rayos X, rayos catódicos, radiaciones de las
preparaciones de radio y luz solar. Los colores luminiscentes suelen ser muy diferentes de los que tienen
los mismos minerales no expuestos. La exhibición de estos colores no sólo es muy interesante sino
también espectacular.
Una sustancia es fluorescente si es luminiscente durante el periodo de excitación, y que es fosforescente
si la luminosidad continúa después que ha desaparecido la causa de la excitación. La fluorina, la calcita,
sheelita, blenda, diamante presentan fluorescencia o fosforescencia o ambas cosas.
La luminiscencia producida por raspado, rayado o machacamiento se llama triboluminiscencia. La
presentan algunas variedades de blenda. Cuando la luminiscencia es el resultado de la aplicación por
calor, como con frecuencia se observa en la fluorina, se llama termoluminiscencia. (2). (1).
Diafanidad. Grados de trasparencia. La cantidad de luz transmitida por un sólido varía la intensidad, o en
otras palabras más o menos puede absorberse al pasa a través de la sustancia dada. La cantidad de
absorción es mínima en un sólido trasparente, como el hielo, mientras que es máxima en uno opaco
como el hierro. Los siguientes términos se adoptan ara expresar las diferentes grados de poder de
trasmisión de luz.
Trasparente: cuando el contorno de un objeto, visto a través de un mineral, se distingue perfectamente.
Subtrasparente. O semitransparente: cuando se ven los objetos, pero no los contornos precisos.
Traslúcido: cuando se transmite la luz, pero no se ven los objetos.
Subtraslúcido: cuando únicamente las aristas trasmiten luz o son traslucidas.
La propiedad de diafanidad ocurre en el reino mineral, desde casi opacidad perfecta hasta la
transparencia, y muchos minerales presentan en sus numerosas variedades, casi todos los distintos
grados. (1). Es la propiedad de un mineral de poder trasmitir la luz. (2)
Tenacidad. Los minerales pueden ser , ya sea quebradizos, sectiles, maleables o flexibles.
A. quebradizos: cuando se separan del mineral, en polvo o granos, cuando se trata de cortarlos,
como la calcita.
B. Sectil: cuando se pueden cortar en pedazos con una cuchilla sin que se pulverice, pero sí se
pulveriza el mineral con el martillo. Este carácter en intermedio entre el quebradizo y el maleable,
como el yeso.
http://www.monografias.com/trabajos10/fimi/fimi.shtml (10 of 13)25/05/2005 13:44:41
Minerales - Monografias.com
C. Maleable: cuando se pueden sacar por tajadas, y éstas aplastarse con el martillo; oro y plata
nativos.
D. Flexible: cuando el mineral se dobla sin romperse y queda doblado después de retirar la fuerza
que lo dobla, como el talco.
La tenacidad es una consecuencia de la elasticidad. (1).
Con este nombre se denomina el comportamiento de los minerales cuando se intenta romperlos,
cortarlos, golpearlos, aplastarlos, deformarlos. Tenemos las siguiente clasificación:
a. frágil: que se rompe o hace polvo con facilidad y no se puede cortar en láminas como el cuarzo.
b. Dúctil: se puede estirar para formar alambres, ejemplo: el cobre y la plata.
c. Flexible: finas capas de mineral se pueden curvar sin llegar a romperse y no recupera su forma
aunque se quite la presión ejercida. Ejemplo talco foliado.
d. Elástico: finas capas de mineral se pueden curvar sin llegar a romperse, pero recuperan su forma
cuando se quita la presión. Ejemplo: mica.
3. Solubilidad.
Fusibilidad. La fusibilidad relativa aproximada, de diversos minerales es un carácter importante para
distinguir unas especies minerales de otras por medio de un soplete. Con este propósito, se usa
convenientemente, para comparación una escala. Los siguientes son los valores de los puntos de fusión
aproximados de los minerales en la escala de von Kobell:
Estibina ( 525°); natrolita (1200°); actinolita (1296°); ortoclasa (1200°); broncita (1380°); también para el
cuarzo cerca de 1600°.
Porosidad. Algunos minerales como consecuencia de su carácter hipogroscópico se adhieren a la lengua
cuando se ponen en contacto con ella, tomando de ahí el nombre de porosos. (2).
Figuras de corrosión. Cuando los cristales de minerales o sustancias químicas están sujetos a la acción
disolvente de ciertos líquidos o gases, aparecen en su superficie pequeñas depresiones geométricas. Las
figuras de corrosión están íntimamente asociadas con la estructura interna del cristal. Para la
determinación de la simetría del cristal, es de gran ayuda el estudio de la forma y posición de estas
figuras en relación con las caras en las que aparecen y con desarrollo geométrico de todo el cristal. La
calcita (CaCO3) y la dolomita (CaMg(CO3)2), cristalizan en romboedros. Sin embargo, la simetría de la
calcita es mas alta que la de la dolomita.
Con bastante frecuencia, los cristales de minerales presentan figuras de corrosión naturales. Para una
determinación precisa de la simetría del cristal, las figuras de corrosión deben estudiarse a la vez que el
análisis de rayos X.
Al provocar figuras de corrosión en el laboratorio, ha de tenerse mucho cuidado en la selección de los
disolventes y en el tiempo que éstos deben actuar. (2).
Pequeñas oquedades en la superficie de un cristal, producidas ocasionalmente por la erosión natural o
ante el ataque de un reactivo adecuando. Debido a la anisotropía de la materia cristalina, las figuras de
corrosión se manifiestan iguales en caras homólogas y diferentes en caras no afectadas por algún
elemento de simetría. Las figuras de corrosión son el resultado de una fase inicial de una disolución del
mineral. (4).
Conductividad. Se ha encontrado que, por lo que se refiere a su conductividad térmica, los cristales se
deben dividir en tres clases. La conductividad del calor parece seguir las mismas leyes generales que la
http://www.monografias.com/trabajos10/fimi/fimi.shtml (11 of 13)25/05/2005 13:44:41
Minerales - Monografias.com
propagación de la luz.
Conductividad eléctrica. La mayoría de los minerales, excepto aquellos que tienen un lustre metálico,
entre los sulfuros y óxidos, son no conductores. Solo los no conductores pueden mostrar fenómenos piro
eléctricos, y solo los conductores pueden dar una corriente termoeléctrica. Los experimentos han
demostrado que la conductividad eléctrica es igual en todas direcciones en los cristales isométricos y que
los cristales de otros varían con la dirección del cristal, ajustándose a las misma leyes que gobiernan la
trasmisión de la luz.
Electricidad friccional. La generación de una carga eléctrica en muchos cuerpos por fricción es un
tópico familiar. Todos los minerales se electrizan por fricción aunque al grado que éste se manifiesta varía
ampliamente. Ambos estados eléctricos pueden presentarse en diferente variedad de la misma especie.
● Piroelectricidad. La generación simultánea de cargas de electricidad negativas y positivas en diferentes
partes del mismo cristal, cuando se cambia la temperatura adecuadamente, se llama piroelectricidad. Si
un cristal genera una carga positiva en una porción durante el calentamiento se generará una negativa en
la misma porción durante el enfriamiento.
● Piezoelectricidad. El calentamiento o enfriamiento de un cristal para producir fenómenos piroeléctricos,
requiere un cambio en su volumen, además si un cambio de volumen se puede causar por otros medios
como la compresión o la tensión, resultan cargas eléctricas similares. El nombre piezoelectricidad se ha
dado a la generación de cargas eléctricas en un cuerpo cristalizado por presión o tensión como sucede
claramente con el cuarzo, turmalina y algunas otras especies. Ha empleado también el término
actinoelectricidad o mejor fotoelectricidad, para el fenómeno de producir una condición eléctrica por la
influencia de la radiación directa.
● Termoelectricidad. El contacto de dos metales diferentes, en general resulta en la electrificación de uno
de ellos positivamente y negativamente el otro. Si además se calienta el punto de contacto mientras las
otras partes, conectadas por un alambre se conservan frías se establece una corriente contínua de
electricidad. Dos metales así conectados constituyen un par termoeléctrico.
●
Tacto. Se llama así a la impresión que se produce al tocar un mineral. Los más conocidos son los
siguientes:
Frío: es el tacto de los buenos conductores del calor. Ejemplos: minerales metálicos como el cobre y la
plata y algunas gemas.
Tosco: aspecto al tacto. La tiza.
Suave: sin asperezas ni irregularidades. Sepiolita. (2).
El tacto es un carácter que ocasionalmente es de alguna importancia; se dice que es térreo (sepiolita),
grasoso (talco), áspero o magro, etc. (1).
Olor. Exceptuando algunas especies gaseosas y solubles, los minerales en el estado seco inalterado no
desprenden olor. Por fricción, humedeciendo con el aliento, y la eliminación de algún ingrediente volátil
por el calor o los ácidos, los olores que se obtienen algunas veces se dignan así:
Aliáceo: olor a ajo, la fricción de la arsenopirita desprende este olor .también puede obtenerse de
compuestos arsenicales por medio de calor.
● Olor a rábano rústico: olor de descomposición del rábano picante. Se percibe fuertemente cuando se
calientan menas de selenio.
● Sulfuroso: la fricción emite este olor de la pirita y el calor de muchos sulfuros.
● Bituminosos: el olor del betumen.
● Fétido: el olor del ácido sulfhídrico o de los huevos podridos. Se emite por la fricción de algunas
variedades de cuarzo y calcita.
●
http://www.monografias.com/trabajos10/fimi/fimi.shtml (12 of 13)25/05/2005 13:44:41
Minerales - Monografias.com
● Arcilloso: el olor del barro húmedo. Se obtiene de la serpentina y de algunos minerales semejante,
después de humedecerlos con el aliento, otros como la pirita lo tiene cuando se calientan. (1).
Algunos minerales tienen olores característicos al olerlos, rasparlos, arañarlos, golpearlos o calentarlos.
(2).
Sabor. Los minerales solubles en agua o en saliva generalmente tienen sabores característicos, como se
indica a continuación, en los siguientes ejemplos:
●
●
●
●
●
●
●
●
ácido: sabor agrio del ácido sulfúrico.
Alcalino. Sabor de sosa o potasa.
Astringente: al tomarlo provoca una contracción, por ejemplo el aluminio.
Amargo: sabor de sal de higuera o sales amargas.
Fresco: sabor de nitrato de sodio o potasio.
Metálico: un sabor muy desagradable, metálico. La pirita descompuesta es un ejemplo.
Picante: gusto punzante o corrosivo, por ejemplo el cloruro de amonio.
Salino: sabor salado del cloruro de sodio o halita. (2).
El sabor pertenece solamente a los minerales solubles. (1)
4. Bibliografía.
1. Mineralogía; Edward Dana, William E. Ford; 4a ed. Ed continental pp. 235 – 252; 29 3 –
294; 303 – 309; 370 – 378.
2. Mineralogía; Edward Harry Kraus, Walter Fred Hunt, Lewis Stephen Ramsdell, traducido
por Agustín Navarro Alvargonzález; Ed Castillo; 5a ed.; pp 95 – 115.
3. Fundamentos de mineralogía para geólogos; John Nahid Phillips; Ed. Limusa; pp. 15 –34
4. Diccionario de términos mineralógicos y cristalográficos: Carlos Días Mauriño; Ed Alianza;
pp. 409; 40; 125.
Ilustraciones: Microsoft® Encarta® 98 Enciclopedia. © 1993-1997 Microsoft Corporation. All rights
reserved.
Trabajo enviado por:
Elisa Sotelo
[email protected]
Volver al inicio | Volver arriba
Términos y Condiciones - Haga Publicidad en Monografias.com - Contáctenos
© 1997 Lucas Morea / Sinexi S.A.
http://www.monografias.com/trabajos10/fimi/fimi.shtml (13 of 13)25/05/2005 13:44:41
Todorov: Una herencia formalista . Estructuralismo y recepción - Monografias.com
Regístrese
Compare
precios
Buscar:
Nuevos
Consulte
a los
expertos
Publicar
Toolbar
Foros
Ayuda
Recomendar
Buscar
Recomendamos:
Barra de
herramientas
gratuita
Avanzada
Agregar a Recomendar
favoritos
Imprimir
Bajar
Trabajo
(Descargar)
Todorov: Una herencia formalista . Estructuralismo y recepción
1.
2.
3.
4.
5.
6.
7.
8.
9.
10.
Presentación
Introducción: Una Ojeada histórica a la semiología (estructuralismo)
Antecedentes: Estructuralismo checo
Estructuralismo: una descripción textual ideal
Hermenéutica, Fenomenología y Teoría de la Recepción.
Herencia formalista
Todorov: una convergencia
Conclusiones
Proyecciones
Bibliografía complementaria
I.Presentación:
En este ensayo se pretende dar a conocer una visión de la herencia formalista, una cosmovisión que
recoge tanto la teoría como el método, es decir, una mirada convergente entre la estructura y la
interpretación. De tal forma que, bajo este prisma, la hipótesis planteada es entonces, "reconocer en
Todorov una herencia formalista".
La mirada en cuestión es a través de éste, quién, en su obra "Poética" y "Simbolismo e Interpretación"
hace converger a la estructura y a la interpretación en un proceso lectural de la producción y de la
recepción como una unidad solidaria entre ambos, pues la lectura no puede ser sólo inmanencia.
II. Introducción: Una Ojeada histórica a la semiología (estructuralismo).[1]
Ya en el siglo XVII John Locke propuso llamar al estudio de los signos "Doctrina de los Signos", de los
cuales, las palabras, son los más usuales, ya que:
http://www.monografias.com/trabajos15/todorov/todorov.shtml (1 of 17)25/05/2005 13:44:59
Todorov: Una herencia formalista . Estructuralismo y recepción - Monografias.com
Para comunicar nuestros pensamientos para nuestro propio uso, son también necesarios signos de
nuestras ideas. Los que el hombre ha encontrado más convenientes, y por consiguiente utiliza más
generalmente, con los sonidos articulados.
Más tarde en el siglo XVIII, Lambert debe su investigación a los impulsos de Locke y desarrolla " la
indagación de la necesidad de la cognición simbólica en general y del lenguaje en general".
Recuerda que, "en nuestro lenguaje lo arbitrario, lo natural y lo necesario están mezclados". Por lo tanto
la diferencia entre estos tres elementos que se encuentran en los signos revela una estrecha relación
con el hecho decisivo de "que las causas primeras del lenguaje están ya por sí mismas en la naturaleza
humana".
Luego, a principio del siglo XIX, Hoene-Wronski, familiarizado con la obra de Locke esbozó una "Filosofía
del Lenguaje" (1879). Según este autor polaco, es "la perfección de los signos la que constituye "el objeto
de la séméiotique". Posteriormente su discípulo Jerzy Braun (1969), examina "La facultad de
signación" (facultas signatrix):
La naturaleza de los signos debe estudiarse ante todo a las categorías de existencia, es decir, a la
modalidad (signos propios/signos impropios) y a la cualidad (signos determinados/signos
indeterminados), y en segundo lugar con respecto a las categorías de producción, es decir, a la cantidad
(signos simples/signos compuestos), a la relación (signos naturales/signos artificiales) y la unión (signos
mediatos/signos inmediatos). Según el programa de Hoene-Wronski, es la "perfección de los signos".
Posteriormente, Balzano, en su obra fundamental " Teoría de la ciencia" (1837) empieza con una
definición bilateral del signo:
Un objeto… a través de cuya concepción deseamos conocer de manera renovada otra concepción
conectada con aquélla en un ser pensante es lo que llamamos un signo.
Los pensamientos semióticos de Balzano -dice Jakobson- Sacan a la luz la diferencia entre el significado
de un signo como tal y el sentido que ese signo adquiere en el contexto de la circunstancia presente.
Ulteriormente en 1890 (inédito hasta 1970) Husserl dice que:
Una mirada más profunda sobre la naturaleza de los signos y de las artes permitiría (la lógica) ir más allá
en esos métodos de procedimiento simbólico a los que no ha llegado todavía la mente humana, es decir,
a establecer las leyes de su invención.
Finalmente, este Acercamiento, marca los límites naturales de la semiótica[2] con Peirce y Saussure.
Según Peirce:
Lo que llamo semiótica, es decir, la doctrina de la naturaleza sencial y de las variedades fundamentales
de cualquier clase posible de semiosis (…) Por semiosis entendiendo una acción, una influencia que sea,
o suponga una cooperación de tres sujetos, como, por ejemplo un signo, su objeto y su interpretante,
influencia tri-relativa que en ningún caso puede acabar en una acción entre parejas.
Un signo es algo que está en lugar de otra cosa para alguien en ciertos aspectos o capacidades.
Según Saussure: La lengua es un sistema de signos que expresan ideas.
Además, Jakobson diría:
Desde el siglo pasado, Saussure trató de alcanzar, según sus propios términos "una idea correcta de lo
que es un sistema semiológico" y de descubrir los rasgos" del lenguaje, como del sistema semiológico
general en su conjunto".
Pues bien, este Acercamiento, no tiene otro fin que el de relacionar la semiótica o estructuralismo a un
continuum histórico, diacrónico para poder entender mejor la realidad actual y cómo el Acercamiento es
sólo a través del signo, aún cuando se suponen deslindados sus componentes en toda la diacronía. Estos
elementos (significado y significante) no se muestran por separado como se verá en adelante en Barthes
http://www.monografias.com/trabajos15/todorov/todorov.shtml (2 of 17)25/05/2005 13:44:59
Todorov: Una herencia formalista . Estructuralismo y recepción - Monografias.com
y los demás teóricos contemporáneos[3], que desarrollan fuertemente el significante, separado del
significado para poder, en cierta forma, explicarlo; de modo tal que se acercan más al método que que a
la teoría, es decir, a la descripción objetual y objetiva que intenta descifrar un sentido.
Pero para entender mejor lo que aquí se plantea es menester revisar el término "estructuralismo" que da
origen a la evolución semiótica, puesto que, desde un principio es una concepción cientifizada; desde que
se tiene conciencia de la peculariedad del lenguaje, especialmente el poético. Respecto de éste,
Mukarovsky dice:
Por lo que se refiere a la aparición estructural de la literatura hay que agradecer sobre todo a la
preocupación científica de los checos que se haya convertido en un sistema coherente (…). Las raíces
del estructuralismo científico-literario checo se remontan con frecuencia a un pasado bastante lejano, en
especial en lo que afecta a la investigación del lenguaje poético.
Ya en J. Jungmann (1773 - 1847) encontramos una ciencia de la peculariedad del lenguaje poético[4]
III Antecedentes: Estructuralismo checo
Es preciso entonces, recordar también el estructuralismo del checo. Mukarovsky definió la estructura
como "equilibrio inestable de relaciones".
Luego agrega:
La noción de estructura … está fundada sobre la unificación interior del todo por medio de las relaciones
recíprocas entre los elementos de aquélla; y esas relaciones no solamente son positivas - concordancias
y armonías -, sino también negativas -oposiciones y contradicciones -: la noción de estructura está por
consiguiente, inseparablemente ligada con el pensamiento dialéctico
Las relaciones entre los elementos, precisamente por ser dialécticas, no pueden ser deducidas de la
noción del todo; el todo en relación ellas, no es prius, sino posterius; el develamiento de estas relaciones
no es, pues, asunto de la especulación abstracta, sino de la empiria. El materialismo gnoseológico
constituye, en consecuencia, la segunda cualidad sencial del pensamiento estructural.[6]
Por lo tanto, este pensamiento estructural …:
Define a veces la estructura como un todo cuyos elementos; por el hecho de entrar en él, revisten un
carácter especial. Se dice: el todo es más que la suma de los elementos que lo componen. Pero del punto
de vista del concepto de la estructura, esta definición es demasiado amplia, porque ella comprende no
solamente las estructuras propiamente dichas, sino también, por ejemplo, las 'formas' (Gestalten); de las
cuales se ocupa la Gestalpsychilogie. Es por eso que subrayamos en el concepto de la estructura
artística un rasgo más especial que la simple interrelación entre el todo y sus elementos. Consideramos
como realidad específica de la estructura en el arte, las relaciones recíprocas entre sus elementos:
relaciones dinámicas por su esencia misma. Según nuestra concepción, no se puede calificar de
estructura sino el conjunto de elementos cuyo equilibrio interior se rompe y se restablece sin cesar, y
cuya unidad aparece, por consiguiente, como una red de contradicciones dialécticas.[7]
Pues bien, con Jan Mukarovsky, se aclara el concepto de estructura y por ello mismo, el panorama
histórico que se revisaba.
Desde aquí en adelante, entonces, se puede apreciar la evolución y la concretización de tal ciencia
literaria.
A esto se debe, pues, el esbozo de un estudio semiológico del arte que hace Mukarovsky[8] en el cual
http://www.monografias.com/trabajos15/todorov/todorov.shtml (3 of 17)25/05/2005 13:44:59
Todorov: Una herencia formalista . Estructuralismo y recepción - Monografias.com
toda obra de arte es un signo autónomo compuesto:
1.De una "obra cosa" que funciona como símbolo sensible,
2.De un "objeto estético", depositado en la conciencia colectiva, y que funciona como significación.
3.De una relación con la cosa significada.
De tal manera que, la obra de arte es al mismo tiempo signo, estructura y valor. Y en tanto signo, sirve
como intermediaria entre "lo que es y lo que está en lugar de otro".
Ahora la obra literaria concebida como signo, no debe perder de vista su carácter de estructura. Por el
mismo hecho de serlo, constituye una estructura bifásica[9]: un símbolo sensible obra-cosa y una
significación: objeto estético depositado en la conciencia colectiva. Es decir, es un " signo mediador entre
el artista y el receptor", razón por la cual existe cada vez más, una mayor aproximación estética y
lingüística, ya que esta última se considera como " ciencia de la clase fundamental de signos, del
lenguaje humano"[10]. De hecho, desde la perspectiva lingüística, la estética estructural se basa en los
trabajos de Saussure y la escuela de Ginebra, Mathesius y el más grande lingüísta checo, Zubaty, entre
otros.
IV.Estructuralismo: una descripción textual ideal
Cabe recordar que tanto el "estructuralismo" como el "recepcionismo" han intentado alcanzar la
"descripción textual ideal" y ésta, no es más perfecta e ideal que en la lectura[11]. Es decir, el
estructuralismo desecha tanto al objeto real como al sujeto humano[12] y sólo queda entre ellos un
sistema de reglas[13]:
El estructuralismo desechó simultáneamente el objeto real y el sujeto humano. Este movimiento doble
define el proyecto estructuralista. La obra ni se refiere a un objeto ni es expresión de un sujeto individual;
ambos son descartados, y sólo queda entre ellos, en el aire que las separa, un sistemade reglas.[14]
Por lo tanto si sólo se piensa que un texto, que una lectura se puede reducir solamente a la descripción
de este sistema propiamente dicho[15], se está nada más lejos, pues, el estructuralismo se transforma así
en "antihumanista"[16], vale decir, se convierte en un objeto caulquiera, que no necesita más que la sola
aplicación de unas reglas o método para saber de él, sin embargo, lo que se logra saber no es más que el
funcionamiento interno de éste y no su conexión con el todo del proceso y no solamente del producto.
O sea:
El estructuralismo podía estudiar detalladamente ese producto, pero se negó a estudiar las condiciones
materiales de su elaboración, pues esto podría significar que se rendía al mito que acepta un "origen". No
hubo muchos estructuralistas a quienes preocupase la forma en que realmente se consumía el producto;
ni lo que en verdad sucede cuando la gente lee obras de literatura; ni el papel que esas obras
desempeñan en el conjunto de las relaciones sociales.[17]
Por último, si los críticos tradicionales constituían una élite espiritual, los estructuralistas parecían integrar
una élite científica, de toda clase de conocimiento s esotéricos muy alejados del lector "común y
corriente".[18]
Y por otro lado, configura un "lector ideal" que debería estar al tanto, con los conocimientos técnicos
esenciales para descifrar todo tipo de obra, por cierto, no es posible, ya que:
http://www.monografias.com/trabajos15/todorov/todorov.shtml (4 of 17)25/05/2005 13:44:59
Todorov: Una herencia formalista . Estructuralismo y recepción - Monografias.com
Si el modelo se llevaba hasta el extremo el lector tendría que ser apátrida, no pertenecer a ninguna clase
social, no haber sido engendrado, estar libre de características étnicas y de prejuicios culturales
coartantes.[19]
En tales circunstancias, el ejemplo más preclaro del estructuralismo es Barthes, especialmente, el de los
"Elementos de Semiología"[20] y por sobre todo, "La Actividad Estructuralista"[21], que se inicia
precisamente con la pregunta ¿Qué es el estructuralismo? [pregunta que también se hará Todorov.]. "No
es una escuela ni siquiera un movimiento", es lo primero que dice Barthes.
¿Qué es el estructuralismo? No es una escuela ni siquiera un movimiento(al menos todavía no), pues la
mayoría de los autores que suelen asociarse a ese término distan mucho de sentirse ligados entre sí por
una solidaridad de doctrina o de combate. Apenas es un léxico: estructura es un término ya antiguo ( de
origen anatómico o gramático), hoy muy usado: todas las ciencias sociales recurren abundantemente a
él, y el uso de la palabra no puede distinguir a nadie, a no ser que se polemice sobre el contenido que se
le da; funciones, formas, signos y significaciones no son mucho más pertinentes.[22]Luego agrega:
Sin duda hay que remontarse a emparejamientos como los de significante - significado y sincronía diacronía para aproximarse a lo que distingue el estructuralismo de otros modos de pensamiento; el
primero porque remite al modelo lingüístico, de origen saussoriano, y que al lado de la economía, la
lingüística es, en el estado actual de las cosas, la ciencia misma de la estructura; el segundo, de un modo
más decisivo, porque parece implicar una cierta revisión de la noción de historia, en la medida que la idea
de sincronía ( a pesar de que en Saussure este sea un concepto, sobre todo operatorio) acredita una
cierta inmovilización del tiempo, y en que la diacronía tiende a representar el proceso histórico como una
pura sucesión de formas; reste último emparejamiento es tanto o más distintivo cuanto parece que la
principal resistencia al estructuralismo sea hoy de origen marxista ( y no de estructura); de todos modos
es probablemente el recurso serio al léxico de la significación ( y no a la palabra misma, que,
parodógicamente, no es nada distintiva), en el que hay que ver en definitiva el signo hablado del
estructuralismo: si vigilamos a quien emplee significante y significado, sincronía y diacronía, sabremos si
la visión estructuralista está constituida.[23]
"Puede decirse, pues, que en relación contodos sus usuarios. El estructuralismo es esencialmente una
actividad" - dice Barthes . También señala:
El objetivo de toda actividad estructuralista, tanto si es reflexiva como poética, es reconstruir un "objeto",
de modo que en esta reconstrucción se manifiesten las reglas (las "funciones") de este objeto. La
estructura es pues, en el fondo, un simulacro del objeto, pero u simulacro dirigido, interesado, puesto que
el objeto que el objeto imitado hace aparecer algo que permanecía invisible, o, si se refiere así,
ininteligible en el objeto natural. El hombre estructural toma lo real, lo descompone y luego vuelve a
recomponerlo; en apariencia es muy poca cosa (…). Sin embargo, desde otro punto de vista, esta cosa
es decisiva; pues entre los dos objetos o los dos tiempos de la actividad estructuralista, se produce algo
nuevo, y esto nuevo es nada menos que lo inteligible general: el simulacro es el intelecto añadido al
objeto, y esa adición tiene un valor antropológico, porque es el hombre mismo, su historia, su situación,
su libertad y la resistencia misma que la naturaleza opone a su espíritu.[24]
http://www.monografias.com/trabajos15/todorov/todorov.shtml (5 of 17)25/05/2005 13:44:59
Todorov: Una herencia formalista . Estructuralismo y recepción - Monografias.com
Pues bien, he aquí entonces el deslinde del estructuralismo: una explicación textual u objetual ideal.
V. Hermenéutica, Fenomenología y Teoría de la Recepción.
Según Eagleton(98), la Hermenéutica Fenomenológica ha de ser estudiada mediante tres factores: la
Fenomenología, la Hermenéutica y la Teoría de la Recepción.
Para el primer elemento establece una base teórica en Husserl, luego para el segundo en Heidegger,
Gadamer y Hirsch, y para la tercera, revisa a los pilares de la recepción: Ingarden, Iser y Fish.[25]
Con estos autores entonces sienta los orígenes de la Teoría de la Recepción. Y por consiguiente se
obtiene una visión historisista bastante clara, pero no suficiente, pues ha olvidado revisar por ejemplo a
Schleiermacher, fundador de la hermenéutica general, antecesor de Heidegger y sostiene al respecto,
afirmando explícitamente, la unidad entre ambas disciplinas[26]. Tampoco vincula la herencia rabínica ni
la poética sanscrita, las que usaría precisamente Todorov[27] para fortalecer su estrategia de la
interpretación. Como tampoco revisa antecedentes fundamentales para la Teoría de la Recepción: La
lingüística, y la sociológica.[28]
En el nuevo método de crítica literaria participan principalmente tres corrientes: una lingüística, otra
hermenéutica y la sociológica.[29]
Para la primera corriente, la profesora López, señala la influencia de la Escuela de Praga, especialmente
Mukarovsky y Vodicka. El primero, distingue dos aspectos en la obra literaria: por un lado, su aspecto
material de artefacto invariable; y semántico; su aspecto de objeto estético, variable en la conciencia
colectiva, según las experiencias literarias de ésta. Dice Mukarovsky:
En la historia y teoría de la literatura y del arte, por ejemplo, no sólo se debe tener en cuenta la forma
interna artística y su desarrollo como una estructura, sino también la relación de esta estructura con otros
fenómenos, sobre todo aquellos de contenido psicológico y social … Todo cambio en la estructura
artística es motivado de alguna manera desde exterior … sin embargo, la relación entre arte y sociedad
no es mecánico-casual. Ni siquiera el contacto propiamente dicho entre arte y sociedad es inmediato, sino
que se realiza, como ya se ha dicho, por mediación del público.[30] Y para el segundo - dice Berta López :
También Vodicka pretende establecer las relaciones entre la obra literaria y la realidad, entre el objeto y
su receptor. Las tareas de la crítica literaria según el análisis de la obra literaria en su contexto histórico
(normas y valores de su época, etc.) y su eco en épocas posteriores.[31]
Para la segunda corriente, la hermenéutica, no hay gran diferencia con el análisis que hace Eagleton.
Para la tercera, la profesora López, revisa los estudios de Schüking y Escarpit y por otra línea a Lukács,
refiriendo de esta manera, entonces, a la corriente sociológica.
Schüking por su parte, aporta estímulos precursores a través de su obra "El gusto literario" (1931).
Investigó la relación entre la obra literaria y determinados grupos sociales, la relación entre cambios socio-
http://www.monografias.com/trabajos15/todorov/todorov.shtml (6 of 17)25/05/2005 13:44:59
Todorov: Una herencia formalista . Estructuralismo y recepción - Monografias.com
históricos y los respectivos cambios literarios sobre el fondo de las normas estéticas, dependientes de
ciertos grupos sociales.
Escarpit en Sociología de la Literatura,( 1958) y Sartre y su modelo de la literatura "engagée", no sólo
analiza la función de la literatura en la sociedad, sino también el problema de establecer el significado de
la obra literaria: "Un pacto de generosidad" entre autor y lector como proceso correlativo a la escritura dice Sartre -.
Manuel Jofré en Teoría Literaria y Semiótica (1990) también aduce:
Al respecto, ha dicho Sartre que se le deja al lector con todo por hacer, y sin embargo, ya todo ha sido
hecho; la obra existe solamente en el nivel de las habilidades del lector, y cuando él lee y crea, él sabe
que siempre puede ir más allá en su lectura, y que siempre podrá crear más profundamente; y esta es la
razón por la cual la obra aparece ante él tan inexhaustiva e inpenetrable como un objeto.[32]
Para Sartre, entonces, el lector es co-autor, co-productor de significado.
Finalmente, se sobreentiende la importancia crítica socialista de Lukács y sus discípulos, y de la obra "
Pour una sciologie du roman" (1964) de Lucien Goldmann, su idea de relacionar "la forma novelesca
misma y la estructura del medio social en cuyo interior se ha desarrollado", la homología entre vida social
y obra literaria.
Los críticos de la corriente sociológica de la Teoría de la Recepción se proponen contestar principalmente
a las siguientes cuestiones - dice López :
- ¿Cómo se "recibe" una determinada literatura ( o tipo de literatura) en un determinado público ( o grupos
sociales) a través de diferentes épocas históricas?
- ¿Cuál es la reacción que produces críticas, etc., en obras posteriores del mismo autor?[33]
En su modelo sociológicamente fundado, se debe analizar el "horizonte de expectativa" según sus clases
sociales, formación cultural, diferencia de edad, sexo, religión, etc.. Se acerca el método en este
momento a la investigación de la comunicación de masas.[34]
Más adelante añade: "Los críticos de Alemania Oriental, Manfred Naumann y Robert Weimann, a pesar
de que desarrollan este mismo modelo, lo rechazan por su carácter burgués":
Según Weimann no existe ninguna discrepancia entre el momento de la escritura y el de la recepción,
puesto que los dos son denominados por la misma ley del proceso histórico (…). Según esta teoría el
objeto del crítico tiene que ser la reconstrucción de esta relación entre base y superestructura y el
descubrimiento de su interdependencia.[35]
Respecto de la Teoría de la Recepción, cabe destacar que sus orígenes surgen de la Escuela de Praga,
antes que de "Konstanzer Schule", por lo tanto, sus influencias, o sus antecedentes, por lo menos, son
http://www.monografias.com/trabajos15/todorov/todorov.shtml (7 of 17)25/05/2005 13:44:59
Todorov: Una herencia formalista . Estructuralismo y recepción - Monografias.com
abiertamente formalistas, situación que ya sugiere Manuel Jofré:
Las posibilidades del análisis formalista son sopesadas en relación a la crítica hermenéutica en
Interpretation of Narrative, editado y publicado en 1978 por Mario Valdés y Owen J. Miller, y cuyos
artículos proceden de una conferencia realizada en la Universidad de Toronto en 1976. (…) por lo menos
otros cuatro de los quince artículos intentan correlacionar el formalismo con la hermenéutica, como modo
de hacer converger las aproximaciones que se basan en el texto con las aproximaciones que se
sustentan en el rol del lector.[36]
VI. Herencia formalista
El profesor Jofré se refiere a Todorov como uno de los que asume la herencia formalista, aunque el juicio
es sobre la obra: "Poética" (1971) :
También asume la herencia formalista eslava el libro Poetique de la prose de Tveztan Todorov, publicado
en París, Seuil, 1971. 253p. Un libro equilibrado, entre la especulación teórica y los análisis prácticos. Es
la herencia metodológica del formalismo la que asume en el ensayo inicial ( o final en otras versiones)
titulado "La herencia metodológica del formalismo"[37]
Hay que reconocer, además, que si bien es cierto, Todorov, inicia su andar formalista, también es cierto
que, al parecer, es el único formalista que concretiza tal tradición y que se vuelca al futuro a través del
análisis del texto, pero desde el discurso y por lo tanto desde la interpretación, puesto que, "al
relativizarse nuestra percepción de la realidad, el hombre percibe que él no es un descubridor sino, más
bien, un intérprete"[38]
Se hace necesario, también, recordar algunos parámetors del formalismo ruso, como por ejemplo la
dicotomía forma-fondo, los que fueron sustituidos por un concepto más dinámico, pues la obra es una
totalidad dinámica, cuyos elementos no están ligados por un signo de igualdad y de adición, sino por un
signo dinámico de correlación y de integración. Otros son los propios participantes, tales como:
- Vinogradov: La estilística debe ser un estudio funcional e inmanente de las obras, pero no es disociable
e los problemas de la historia y del cambio literario.
- Además sugiere que el estilo de un artista lioterario podía y debía examinarse no sólo en términos
"intrínsecos", sino también en relación con modos no poéticos del discurso:
a) Contexto de las formas artísticas del lenguaje literario.
b) El contexto de los sistemas lingüísticos sociales que pueden percibirse dentro del lenguaje hablado y
escrito de las clases educadas.
- Tynjanov: El concepto fundamental para el estudio de la evolución literaria es el de sustitución de
sistema. Tanto la obra literaria como la literatura constituyen un sistema, es decir, un conjunto de
entidades organizadas que mantienen entre sí relaciones de interdependencia y que se ordenan a la
cosecución de una finalidad determinada: cada elemento entra en correlación con los demás elementos
del mismo sistema y por consiguiente, con el sistema entero.
- Un hecho literario se define por su cualidad diferencial en relación con otros hechos de la serie literaria
o series extraliterarias, es decir, se define por su función, y por tanto, para reconocer la naturaleza y la
http://www.monografias.com/trabajos15/todorov/todorov.shtml (8 of 17)25/05/2005 13:44:59
Todorov: Una herencia formalista . Estructuralismo y recepción - Monografias.com
función de un hecho literario se impone el conocimiento previo de la serie literaria y de las serie
extraliterarias.
- La comprensión de una obra es imposible sin el conocimiento de la evolución y de la historia literaria.
-Ejxenbaum, situado en el plano semántico, señala :" en el lenguaje poético, la palabra se traslada a una
nueva atmósfera semántica, pues deja de ser comprendida en relación con la lengua general para ser
entendida en relación con lalengua poética" [ o ¿discurso?].
-También formula el concepto de "Unidad Teleológica" como recursos articulados en un efecto estético.
-Desarrolla además el término "Gestaltqualität como impacto en la verbosidad (sintaxis).
Pues bien, como se logra apreciar ya, se sugiere, entonces, una nueva lectura de Todorov,
especialmente en sus obras "Poética" y "Simbolismo e Interpretación"; en ambas, se hallan gran parte de
los elementos esquematizados por el profesor Jofré en el Curso de Semiótica: Desde el "Signo al
Lector" (2002) en dos de sus apuntes: TEORÍA DE LA RECEPCIÓN I y TEORÍA DE LA RECEPCIÓN II,
los que se relacionarán, por ahora, sólo de modo general, puesto que el espacio necesario para este
análisis ha de ser un mayor.
VII.Todorov: una convergencia
En POÉTICA:(Edición 1975, Editorial LOSADA S.A.. Bs. As.. Arg.) Todorov, también responde a la
pregunta ¿Qué es el estructuralismo? Y lo hace desde la obra citada: "¿Qué es el estructuralismo?.
En primer término lo hace a través de una "Nota sobre la presente edición" (1973):
El siguiente texto difiere bastante del escrito en 1967, que figuraba con igual título en el volumen colectivo
¿Qué es el estructuralismo? Esto obedece a una doble razón: actualmente el campo de la poética ya no
es lo era hace seis años, y yo mismo no siempre lo sigo enfocando de la misma manera. Pero un texto
totalmente nuevo no podría integrarse ya a nuestro proyecto inicial. Por consiguiente, he reservado la
intención general y el marco de la primera versión, así como cierto análisis y ejemplos, modificando sin
embargo la exposición cada vez que fue necesario para dar cuenta del estado actual de la poética.
Tzvetan Todorov. Mayo 1973.
Tal vez, aún no es visible lo que se quiere plantear, pero en la misma se subrayar:
…actualmente el campo de la poética ya no es lo que era hace seis años, y yo mismo no siempre lo sigo
enfocando de la misma manera.
Por lo tanto él, ya es post-estructural y a partir de la descontrucción del término "interpretación":
La interpretación - denominada también a veces exégesis, comentario, explicación del texto, lectura,
análisis o incluso simplemente crítica (esta enumeración no significa que sea imposible distinguir o
incluso contraponer algunos de estos términos) - se define, en el sentido que aquí le damos, por aquello a
lo que apunta, que consiste en nombrar el sentido del texto examinado. Este objetivo determina de una
sola vez, su ideal - que consiste en hacer hablar al texto mismo; con otras palabras: se trata de fidelidad
al objeto, al otro. Y por consiguiente a la desaparición del sujeto [estructuralismo puro] - y su drama, que
consiste en no poder alcanzar nunca el sentido sino únicamente un sentido, sometido a las contingencias
históricas y psicológicas. Ideal y drama que se serán modulados a lo largo de toda la historia del
comentario, la que a su vez es coextensiva a la historia de la humanidad. [recepcionismo, participación
del sujeto histórico].[39]
Pero todo esto se ratifica más adelante…
En efecto: interpretar una obra, literaria o no, por sí misma, sin abandonarla ni por un instante, sin
http://www.monografias.com/trabajos15/todorov/todorov.shtml (9 of 17)25/05/2005 13:44:59
Todorov: Una herencia formalista . Estructuralismo y recepción - Monografias.com
proyectarla fuera de sí misma, esto en cierto sentido es imposible. O más bien: tal tarea es posible, pero
en ese caso la descripción es una mera repetición, palabra por palabra, de la obra misma. Se apega tanto
a las formas de la obra que ambas sólo forman una unidad. Y, en cierto sentido, toda obra constituye de
por sí la mayor descripción de sí misma.[40]
Y termina (la descontrucción) de la siguiente manera:
Lo que más se aproxima a esta descripción ideal, pero invisible, es la simple lectura, en la medida en que
ésta no es más que una manifestación de la obra. Sin embargo, el proceso de lectura no deja de implicar
ya ciertas consecuencias: dos lecturas de un libro nunca son idénticas. Al leer se traza una lectura pasiva;
se agrega y se suprime en el texto leído aquello que se quiere o no encontrar en él; desde el momento en
que existe un lector, la lectura ya no es inmanente. ["Broche de oro" de la desconstrucción: desde que
existe un lector la lectura ya no es inmanente.][41].
En SIMBOLISMO E INTERPRETACIÓN.
En primer lugar se debe rescatar el epígrafe o intertextotualidad que usa Todorov:
Es tan mortal para el espíritu tener un sistema como no tenerlo. Debe, por consiguiente, decidirse a reunir
los dos.
Friedrich Schlegel.
Y en segundo lugar, lo que el mismo dice al respecto ( de esta unión):
Yo quisiere plantear, en efecto, la solidaridad de lo simbólico y de la interpretación (…) los cuales, en mi
opinión, no son más que dos vertientes, producción y recepción, de un mismo fenómeno. En
consecuencia, pienso que su estudio aislado no es deseable, y ni siquiera posible. Un texto, o un
discurso, se hace simbólico desde el momento en que, mediante un trabajo de interpretación, le
descubrimos un sentido directo.[42]
Luego, más adelante se introduce de lleno en las posibilidades receptivas:
La producción y la recepción de los discursos originaron, en el pasado dos disciplinas diferentes: la
retórica y la hermenéutica.[43]
Dos actividades que son bastante antiguas, pero que tuvieron que adaptarse, evoluvionando y
especialmente a partir de los formalistas que removieron todo y que luego entre huída y refugio, tiende a
las claridades evolutivas, tanto del productor como del receptor (realidades ya esbozadas en las
secciones anteriores):
Mi exposición de divide en dos partes [dice Todorov], Simbolica del lenguaje y Estrategias de la
interpretación (…) en función de dos niveles: el de la teoría general, que intenta dar cuenta de todas las
posibilidades, y el de la estrategia particular, de producción o de recepción (aun cuando yo haga hincapié
sobre todo en esta última).[44]
http://www.monografias.com/trabajos15/todorov/todorov.shtml (10 of 17)25/05/2005 13:44:59
Todorov: Una herencia formalista . Estructuralismo y recepción - Monografias.com
Luego agrega:
El campo de lo interpretable siempre corre el riesgo de extenderse. En estas expansiones se justifican, en
lo que concierne a la interpretación, por referencia a un marco ideológico y, respecto a la producción, por
la sumisión a un género, que no es otra cosa (…) que un contrato establecido entre el autor y el lector y
que determina precisamente el modo de lectura a seguir.[45]
A continuación se presentará unos esquemas, de modo general, del modelo de Todorov y mostrarán
algunos de los rasgos o elementos formalistas, hermenéuticos y recepcionistas, que van desde la unión
de análisis formal con otro histórico-recepcional, unión de métodos estructuralistas y hermenéuticos
hasta intentos de una nueva estética y una nueva retórica basadas n el efecto (o desición de interpretar);
al igual que los recepcionistas, por una parte la hermenéutica y por la otra lingúística y sociedad. Un
verdadero "horizonte de expectativa": normas vigentes para los géneros en determinadas épocas
[estructura], la relación implícita con otras obras literarias contemporáneas y la oposición entre ficción y
realidad, entre función poética y práctica del lenguaje, la confrontación de la estructura del texto literario
con los modos por los cuales éste puede ser concretizado; cuando el lector decide, éste reconoce
implícitamente la calidad de inagotable que el texto posee; el texto remite a preconcepciones que se
manifiestan en el acto de la interpretación y muchos otros.[46]
Esquemas:
Finalmente, a modo de conclusión de esta breve y no terminada investigación [la que queda abierta,
tanto para el ensayista como para otros.]:
El texto es un todo autónomo, con límites precisables, pero al mismo tiempo es una obra abierta, en
movimiento. Pueden distinguirse en el texto numerosos niveles: fonemáticos, sintácticos, semánticos,
ideológicos, narrativos, culturales, identificables según y acorde a los códigos que se utilicen para su
decodificación.
Esta nueva noción de texto y de lectura, vista como una conexión dinámica entre signos e
indeterminaciones, como elementos que se articulan y desarticulan en un proceso de constante equilibrio
inestable, se complementa con la idea según la cual el texto es activado mediante su puesta en relación
con un sistema significante mayor, es decir, con un discurso consistente en un sistema mayor de textos
jerárquica y dinámicamente organizado.[47]
CONCLUSIONES:
A. El estructuralismo desechó simultáneamente el objeto real y el sujeto humano. Este movimiento doble
define el proyecto estructuralista. La obra ni se refiere a un objeto ni es expresión de un sujeto individual;
ambos son descartados, y sólo queda entre ellos, en el aire que las separa, un sistema de reglas.
B. El estructuralismo no es una escuela ni siquiera un movimiento (al menos todavía no), pues la mayoría
de los autores que suelen asociarse a ese término distan mucho de sentirse ligados entre sí por una
solidaridad de doctrina o de combate. Apenas es un léxico: estructura es un término ya antiguo ( de
http://www.monografias.com/trabajos15/todorov/todorov.shtml (11 of 17)25/05/2005 13:44:59
Todorov: Una herencia formalista . Estructuralismo y recepción - Monografias.com
origen anatómico o gramático), hoy muy usado: todas las ciencias sociales recurren abundantemente a
él, y el uso de la palabra no puede distinguir a nadie, a no ser que se polemice sobre el contenido que se
le da; funciones, formas, signos y significaciones no son mucho más pertinentes.
B. La interpretación - denominada también a veces exégesis, comentario, explicación del texto, lectura,
análisis o incluso simplemente crítica (esta enumeración no significa que sea imposible distinguir o
incluso contraponer algunos de estos términos) - se define, en el sentido que aquí le damos, por aquello a
lo que apunta, que consiste en nombrar el sentido del texto examinado. Este objetivo determina de una
sola vez, su ideal - que consiste en hacer hablar al texto mismo; con otras palabras: se trata de fidelidad
al objeto, al otro. Y por consiguiente a la desaparición del sujeto [estructuralismo puro] - y su drama, que
consiste en no poder alcanzar nunca el sentido sino únicamente un sentido, sometido a las contingencias
históricas y psicológicas. Ideal y drama que se serán modulados a lo largo de toda la historia del
comentario, la que a su vez es coextensiva a la historia de la humanidad. [recepcionismo, participación
del sujeto histórico].
B. El campo de lo interpretable siempre corre el riesgo de extenderse. En estas expansiones se justifican,
en lo que concierne a la interpretación, por referencia a un marco ideológico y, respecto a la producción,
por la sumisión a un género, que no es otra cosa (…) que un contrato establecido entre el autor y el lector
y que determina precisamente el modo de lectura a seguir.
C. Un texto, o un discurso, se hace simbólico desde el momento en que, mediante un trabajo de
interpretación, le descubrimos un sentido directo. En efecto, la solidaridad de lo simbólico y de la
interpretación (…) los cuales, no son más que dos vertientes, producción y recepción, de un mismo
fenómeno. En consecuencia, su estudio aislado no es deseable, y ni siquiera posible.
D. El texto es un todo autónomo, con límites precisables, pero al mismo tiempo es una obra abierta, en
movimiento. Pueden distinguirse en el texto numerosos niveles: fonemáticos, sintácticos, semánticos,
ideológicos, narrativos, culturales, identificables según y acorde a los códigos que se utilicen para su
decodificación.
Esta nueva noción de texto y de lectura, vista como una conexión dinámica entre signos e
indeterminaciones, como elementos que se articulan y desarticulan en un proceso de constante equilibrio
inestable, se complementa con la idea según la cual el texto es activado mediante su puesta en relación
con un sistema significante mayor, es decir, con un discurso consistente en un sistema mayor de textos
jerárquica y dinámicamente organizado.
E. La lectura no puede ser sólo inmanencia, esta es la mirada de Todorov, quién, en su obra "Poética" y
"Simbolismo e Interpretación" hace converger a la estructura y a la interpretación en un proceso lectural
de la producción y de la recepción como una unidad solidaria entre ambos.
PROYECCIONES:
A. La lectura ha de ser siempre un recorrido dentro del espacio del texto; recorrido que no se ha de
limitar, es decir, recorrer el texto siempre como espacio y no como linealidad.
B. Todo círculo hermenéutico o receptivo no es equivalente a otro por lo tanto, también, ha de ser un
espacio plural de las interpretaciones, y en la práctica cada uno sabe que no hay lecturas más fieles que
otras, aun cuando ninguna lo es por completo.
http://www.monografias.com/trabajos15/todorov/todorov.shtml (12 of 17)25/05/2005 13:44:59
Todorov: Una herencia formalista . Estructuralismo y recepción - Monografias.com
BIBLIOGRAFÍA BÁSICA:
Todorov. 1975. Todorov, T. "¿Qué es el estructuralismo?. POÉTICA.". Editorial LOSADA S.A.. Arg. 1975.
Todorov, T. "Simbolismo e Interpretación". Monte Ávila Editores. Segunda edición.1992.
Jofré,M. 1990. Jofré, Manuel. "Semiótica y Literatura. Historia de la Semiótica Actual." Editorial.
Universitaria. 1990.
Mukarobsky, J."El estructuralismo en la estética y en la ciencia literaria" en Arte y Semiología, Madrid.
Alberto corazón Editor. 1971
Mukarovsky, Jan. "La obra literaria como estructura". En Problemas de la Literatura. Valparaíso, Ed.
Universitaria, año I, número I. 1972.
Iser, Wolgang. 1972. Iser, Wolgang. "El proceso de Lectura: Un enfoque Fenomenológico". Publicado en
New Literary History, 3, 1972.
Jauss,Hans. 1970. Jauss, Hans. Historia de la Literatura como una Provocación a la Ciencia Literaria.
Colección Suhrkamp. 1970.
BIBLIOGRAFÍA COMPLEMENTARIA:
Barthes, 1967 Ensayos Críticos,La Actividad Estructuralista. España.Editorial Seix Barral.1967.
Roland Barthes. Elemento de Semiología Alberto Corazón Editor.Madrid.1971.
La Aventura Semiológica Barcelona. Editorol Paidós Iberica, SA Segunda edición en Castellano.1993.
Terry Eagleton Una Introducción a la Teoría Literaria. México, Fondo de Cultura Económica, 1998.
Humberto Eco.Tratado de Semiótica General. Introducción; Hacia una Lógica de la cultura. Barcelona.
Lumen, quinta edición. 2000.
Chomsky, 1990 Noam Chomsky. Estructuras Sintácticas. México. Siglo Veintiuno Editores, S.A. de CV.
10ª edición en Español. 1990.
Roberto Hozven. El Estructuralismo Literario Francés. Santiago de Chile. Editorial del Dpto de Estudios
Humanísticos. Facultad de Cs. Físicas y Matemáticas.1979.
Roman Jakbson.El Marco del Lenguaje. Ojeada al Desarrollo de la Semiología.México.Fondo de Cultura
Económica.1998.
http://www.monografias.com/trabajos15/todorov/todorov.shtml (13 of 17)25/05/2005 13:44:59
Todorov: Una herencia formalista . Estructuralismo y recepción - Monografias.com
López, Berta. Curso de pregrado."Teoría Literaria I". Apunte: "La Teoría de la Recepción".U.B.B, Chillán,
1991.
Mercè Rius.T.W.Adorno, del Sufrimiento a la Verdad.Barcelona.Editorial LAIA. 1985.
Ferdinad De Saussure. Curso De Lingüística General. Bueno Aires. Editorial Losada, S.A. 1945.
Thomas Sebeok. Signos: Una Introducción a La Semiótica.
*******************************************************************
[1] Esta introducción tiene la intención de mostrar una evolución de los elementos esenciales del
estructuralismo formulado por Barthes en "La Actividad Estructuralista". Para una revisión historiográfica
más completa es necesario revisar a Manuel Jofré: Teoría Literaria y Semiótica. Editorial Universitaria.
Santiago de Chile.1990.
[2]Eco, Umberto. Tratado de Semiótica General. Introducción; Hacia una Lógica de la cultura. O5. Límites
Naturales: Dos definiciones de Semiótica. Barcelona. Lumen, quinta edición.2000.
[3] Jofré, Manuel. Semiótica y Literatura. Historia de la Semiótica Actual. Edit. Universitaria. 1990.
[4] Mukarovsky, Jan. "El estructuralismo en la estética y en la ciencia literaria" en Arte y Semiología,
Madrid. Alberto corazón Editor. 1971
[5] Mukarovsky, Jan. "La obra literaria como estructura" en Problemas de la Literatura. Valparaíso, Ed.
Universitaria. 1972, año I, número I.
[6] Ibid.
[7] Ibid.
[8] Mukarovsky, Jan. "El arte como hecho semiológico" en Problemas de Literatura.1972. AñoI, Número I.
[9] Ibid.
[10] Mukarovsky, Jan: El estructuralismo en la estética y en la literatura", Opus cit.
[11] T.Todorov. Poética.
[12] Eagleton, Terry. Una introducción a la Teoría Literaria: III. Estructuralismo y Semiótica. F.C.E.Méx.,
1998.
http://www.monografias.com/trabajos15/todorov/todorov.shtml (14 of 17)25/05/2005 13:44:59
Todorov: Una herencia formalista . Estructuralismo y recepción - Monografias.com
[13] Ibid.
[14] Ibid.
[15] Ibid.
[16] Ibid.
[17] Ibid.
[18] Ibid.
[19] Ibid.
[20] Barthes, Roland. Elementos de Semiología.Alberto Corazón Editor.Madrid. 1971.
[21] Ensayos Críticos. "La Actividad Estructuralista". Editorial Seix Barral.España. 1967.
[22] Ibid.
[23] Ibid,
[24] Ibid.
[25] Eagleton. Opus cit.
[26] Todorov.T. Simbolismo e Interpretación. Monte Ávila Editores, 1982.
[27] Ibid.
[28] López, Berta. Curso de pregrado. "Teoría Literaria I": Apunte: "La Teoría de la Recepción. U.B.B,
Chillán, 1991.
[29] Ibid.
[30] Mukarovsky, Opus cit.
[31] López, Opus cit.
[32] Jofré. Opus cit. 9. Estética de la recepción y fenomenologóa de la lectura: 7. La lectura como
Decodificación e Interpretación.
http://www.monografias.com/trabajos15/todorov/todorov.shtml (15 of 17)25/05/2005 13:44:59
Todorov: Una herencia formalista . Estructuralismo y recepción - Monografias.com
[33] López. Opus cit
[34] Ibid.
[35] Ibid.
[36] Jofré.Opus cit: 3. Historia Literaria posestructuralista: 4 El Formalismo Posestructuralista.
[37] Ibid.
[38] Opus cit: 9. Estética de la recepción y fenomenología de la lectura: 9. Lectura, Semiósis y Paradigma.
[39] Todorov, T. "¿Qué es el estructuralismo?. POÉTICA.". Editorial LOSADA S.A.. Arg. 1975.
[40] Ibid.
[41] Ibid.
[42] Todorov, T. Simbolismo e Interpretación. Monte Ávila Editores. Segunda edición.1992.
[43] Ibid.
[44] Ibid.
[45] Ibid.
[46] Aquí se recogen, sucintamente, las lecturas recepcionistas: Ingarden, Iser, por ejemplo. No obstante
estas lecturas han sido parte fundamental y complementaria.
[47] Jofré, M. Opus cit.
JORGE ROSAS GODOY
[email protected]
Volver al inicio | Volver arriba
http://www.monografias.com/trabajos15/todorov/todorov.shtml (16 of 17)25/05/2005 13:44:59
Todorov: Una herencia formalista . Estructuralismo y recepción - Monografias.com
Términos y Condiciones - Haga Publicidad en Monografias.com - Contáctenos
© 1997 Lucas Morea / Sinexi S.A.
http://www.monografias.com/trabajos15/todorov/todorov.shtml (17 of 17)25/05/2005 13:44:59
Concepto de Temperamento y Carácter - Monografias.com
Regístrese
Compare
precios
Buscar:
Nuevos
Consulte
a los
expertos
Publicar
Toolbar
Foros
Ayuda
Recomendar
Buscar
Recomendamos:
Barra de
herramientas
gratuita
Avanzada
Agregar a Recomendar
favoritos
Imprimir
Bajar
Trabajo
(Descargar)
Concepto de Temperamento y Carácter
Indice
1. Introducción
2. Escuela constitucionalista Italiana
1. Introducción
El carácter es una tendencia hacia un tipo de comportamiento que manifiesta el individuo. Todos los
elementos que integran el carácter se organizan en una unidad que se conoce como estabilidad y
proporciona al carácter coherencia y cierto grado de uniformidad en sus manifestaciones, con los cambios
lógicos que ocurren a lo largo de la vida.
Elemento psíquico del carácter:
En él intervienen principalmente las funciones psíquicas, así como la acción del ambiente. A partir de
esos elementos se desarrollan los factores individuales, que conforman el particular modo de reaccionar y
enfrentar la vida que presenta una persona.
Elemento orgánico del carácter:
Existe una relación indispensable entre cuerpo y mente; el carácter posee también una base biológica
que depende de elementos orgánicos como la constitución física y el temperamento.
El temperamento:
El temperamento es la base biológica del carácter y esta determinado por los proceso fisiológicos y
factores genéticos que inciden en las manifestaciones conductuales.
http://www.monografias.com/trabajos10/teca/teca.shtml (1 of 3)25/05/2005 13:45:17
Concepto de Temperamento y Carácter - Monografias.com
Evolución a la biotipologia:
A través del estudio de las características morfológicas pretende establecer relaciones entre tipos de
temperamento y constitución somática. Se trata de asociar las características de una estructura física
determinada, con características temperamentales específicas.
Temperamento sanguíneo:
Corresponde al predominio de la sangre: físicamente son individuos de estatura inferior a la media, buena
musculatura, figura proporcionada. En sus manifestaciones de carácter presenta tendencia a la
irreflexión, es sociable, poco tenaz y persistente.
Temperamento melancólico:
Predomina en él lo que Hipócrates llamaba la "bilis negra", se conoce también como tipo nervioso.
Físicamente es delgado, de estatura normal o superior a la media, con tendencia a la palidez.
Temperamento colérico:
Predomina en su organismo la "bilis amarilla". De estatura normal o superior a la media; la piel presenta
un tono amarillento.
Temperamento flemático:
Físicamente tienen tendencia a la obesidad, aunque pueden existir tipos delgados.
2. Escuela constitucionalista Italiana
De Giovanni: estableció los conceptos de normotipo y ectipo. El normotipo determina ciertas proporciones
que el organismo debe presentar para corresponder a un tipo definido; el ectipo se observa cuando el
sujeto presenta dimensiones corporales en mayor o menor proporción que las fijadas para un tipo
somático. El normotipo debía presentar ciertas proporciones somáticas, como la longitud abarcada por los
brazos abiertos debe ser igual a la estatura y circunferencia torácica igual a la mitad de la estatura,
además de otras medidas mas complejas.
Nicolás Pende: defino el biotipo como la resultante morfológica, fisiológica y psicológica, variable de un
individuo a otro, de las propiedades celulares y humorales del organismo.
Tipología de Ernst Kretschmer:
En forma simultánea a las aportaciones de la escuela italiana, en Alemania Kretshmer desarrollaba una
clasificación de tipos somáticos con la que intentó relacionar una estructura corporal determinada y las
tendencias psicológicas correspondientes. Los tipos de propuestos por Kretshmer son el picnico, el
atlético y el leptosomatico.
Los tipos psíquicos propuestos por Kretshmer
Como se indico, cuando Kretshmer establece a clasificación de tipos psíquicos se basa en algunos
rasgos de enfermedades mentales.
En el desarrollo embrionario, el sistema digestivo se origina del endodermo; el sistema nervioso y los
órganos sensoriales del ectodermo y el sistema muscular y óseo del mesodermo. Basándose en esos
http://www.monografias.com/trabajos10/teca/teca.shtml (2 of 3)25/05/2005 13:45:17
Concepto de Temperamento y Carácter - Monografias.com
principios, Sheldon y su colaborador Stevens, establecen la siguiente clasificación:
❍
❍
❍
El endomorfo
El ectomorfo
El mesomorfo
Trabajo enviado por:
Jorge Romeo Gaitán Rivera
[email protected]
Universidad Francisco Marroquín
Ingeniería en Electrónica
Guatemala, Guatemala
Volver al inicio | Volver arriba
Términos y Condiciones - Haga Publicidad en Monografias.com - Contáctenos
© 1997 Lucas Morea / Sinexi S.A.
http://www.monografias.com/trabajos10/teca/teca.shtml (3 of 3)25/05/2005 13:45:17
Adolescencia y modelos de identificación - Monografias.com
Regístrese
Compare
precios
Buscar:
Nuevos
Consulte
a los
expertos
Publicar
Toolbar
Foros
Ayuda
Recomendar
Buscar
Recomendamos:
Barra de
herramientas
gratuita
Avanzada
Agregar a Recomendar
favoritos
Imprimir
Bajar
Trabajo
(Descargar)
Adolescencia y modelos de identificación en la globalizacion y el fin de
siglo
1- Globalización y Fin de siglo.
2- Adolescentes. Los unos y los otros.
3- Modelos de identificación. Identidad y consumo.
4- Consumación o consumo.
1- Globalización y Fin de siglo.
Las nuevas tecnologías, la reorganización mundial del mercado de trabajo, también llamada
globalización, afecta a todas las relaciones sociales involucradas y no solamente a las económicas; tanto
a aquellas comprometidas en forma directa en la producción, distribución y comercialización de los
bienes, como las comprendidas en las estructuras del consumo. Y, en esta dimensión particular, vienen a
desplegarse nuevos universos simbólicos con el advenimiento de una comunidad transnacional de
consumidores.
Según García Canclini, más allá de la modalidad de incorporación a la globalización de cada Estado-
http://www.monografias.com/trabajos/adolmodin/adolmodin.shtml (1 of 9)25/05/2005 13:45:33
Adolescencia y modelos de identificación - Monografias.com
Nación, se obliga a una revisión de la escena sociocultural que, entre otras, incluye:
i) la reelaboración de lo "propio", "debido al predominio de los bienes y mensajes procedentes de una
economía y una cultura globalizadas sobre los generados en la ciudad y la nación a las que se pertenece";
ii) la redefinición del sentido de pertenencia e identidad, "organizado cada vez menos por lealtades
locales o nacionales y más por la participación en comunidades transnacionales o desterritorializadas de
consumidores" (los jóvenes en torno del rock, la MTV, etc.);
En otras palabras, y según el mismo autor, si las identidades modernas eran territoriales y
monolingüísticas, las identidades posmodernas son transterritoriales y multilingüísticas. En consecuencia,
la identidad como acto de apropiación simbólica, abandona el domino territorial para situarse en la
dimensión del consumo.
En este marco, los medios de comunicación audiovisual son las nuevas megaestrellas, en matrimonio con
la publicidad, el estímulo al consumo, a las marcas, a los emblemas. Pensemos en las horas de TV que
consumen los niños y los adolescentes y advertiremos que esta se ha convertido en una principal fuente
de experiencias e información para organizar su mundo.
No puede faltar en el análisis de época, la clave posmoderna, expresada en la caída de los grandes
relatos, que organizaban la racionalidad histórica moderna alrededor de proyectos políticos
generacionales que eran marcas de época y aportaban una visión de totalidad dadora de sentido a cada
experiencia particular. Hoy, en todo caso, el único gran relato que permanece parece ser el del mercado y si es global mejor- y este hecho alienta una gran insuficiencia, ya que, entre otras cosas, en el mercado
no estan todos, y, entre los que estan, suele haber una fuerte desigualdad. Si somos iguales en tanto
ciudadanos -un hombre, un voto-, no lo somos en tanto consumidores. El viejo reino de la libertad frente
al reino de la necesidad.
Se presenta de su mano, una crisis que muchos afirman de época, manifestada en la pérdida de peso de
valores e ideales (el pensamiento débil, el relativismo cultural, más prosaicamente el doble discurso),
signos de violencia crecientes, un descreimiento colectivo en la justicia de los hombres, un
adelgazamiento de la perspectiva solidaria, un consumismo exacerbado como razón social hegemónica,
el incentivo a la satisfacción inmediata y la cultura de vivir el momento junto a la escasez de
oportunidades sociolaborales. Un sentimiento de escepticismo generalizado revela un clima de época
para el que el estado de las cosas no puede ser transformado positivamente.
En definitiva, un tiempo en el que se promueve incesantemente los valores del mercado, como
competencia -en este caso individual-, productividad y pragmatismo, mientras se dejan de lado o
minimizan otros, de perfil social o comunitario. Al mismo tiempo, se desdeña el compromiso personal con
los otros, por modelos de vida más superficiales o "light".
Esta situación, orienta hacia la instrumentalización de la vida, hacia un mundo de valores definido por la
http://www.monografias.com/trabajos/adolmodin/adolmodin.shtml (2 of 9)25/05/2005 13:45:33
Adolescencia y modelos de identificación - Monografias.com
"utilidad" y "practicidad" de los bienes, ya sean materiales o simbólicos, culturales. Así, los "bienes
culturales" pasan por un tamiz ideológico -la ideología mercadista- que los convierte en "bienes de
mercado", generándose una "industria cultural" que pierde autonomía respecto al orden de la producción
o, en el mejor de los casos, se reconstruye bajo otro concepto. En este sentido, el "paradigma
eficientista", pasa a ser el valor dominante por el que se miden todas las cosas.
Así, finalmente, las personas terminan pudiéndose clasificar en dos categorías básicas: los ganadores,
los que existen, y los perdedores, los que "no existen". Pero en estos términos, la mayoría no puede
quedar sino del lado de los perdedores, que ya dijimos, "no existen".
En este marco, nuestros adolescentes y jóvenes aparecen como más prácticos de lo que fueron sus
padres, es decir, no desdeñan un ideal, pero se preguntan por su efectividad, sin ser cínicos. La
incertidumbre laboral, profesional, cómo obtener un empleo y conservarlo, pasa a ser una preocupación
que carecía de tal entidad para la generación de sus padres o de sus hermanos mayores. La realidad a
llevado a estos jóvenes a tener menos vocación para intentar cambiar el mundo que para luchar por
integrarse a él. Son, el joven de clase media en dificultades y el joven "fogonero" que corta una ruta en
Neuquén para pedir por un empleo de 200$ por mes y duración incierta.
Sin embargo, si actualmente la mayoría de los jóvenes manifiesta un menor interés por los temas
públicos, no debe concluirse de ello que no experimenten disconformidad, sino que ésta se expresa de
otra manera; el rock es un buen ejemplo de ello.
2- Adolescentes. Los unos y los otros.
Tradicionalmente, al pensar en adolescentes, los imaginamos de entre 14 y 18 años, más o menos, con
una serie de rasgos, que, si no prototípicos, los definirían por agregación de características comunes.
Entre ellas: el proceso de construcción de una identidad personal, autónoma; la importancia otorgada al
grupo de pares; el despliegue gradual de una sexualidad madura; el logro de una intelictividad abstracta;
la perspectiva omnipresente de los ideales.
Sin embargo, los rasgos tradicionales hoy no alcanzan para nombrarlos en la novedad de una sociedad
que se "juveniliza", deificando lo "joven" con un sentido per se, -ya veremos vacuo y falso a la hora de las
resoluciones-; y que extiende los límites de la antes llamada fase juvenil, desestructurándola hacia arriba
y abajo. Hacia arriba, por efecto de la cada vez mayor exigencia de acreditaciones y certificaciones
educativas y, a su lado, por las dificultades de insertarse laboralmente o, al menos, de hacerlo con cierta
estabilidad en el mercado de trabajo -del que se entra y se sale inopinadamente-, lo que da lugar a una
mayor franja de parados adultos jóvenes. Y hacia abajo, desde que la base nutricional produjo en este
siglo un adelanto cronológico verificable en el desarrollo físico de los individuos, hasta lo sociocultural, en
las que se presentan tempranamente demandas antes demoradas en el tiempo.
Por otra parte, junto a la afirmación de que se extienden la adolescencia y la juventud, debemos
reconocer, que, al mismo tiempo, las distancias entre muchos quienes comparten una edad cronológica
parecen convertirse en brechas, materiales y socioculturales, ampliando diferencias en una talla
creciente. En términos demográficos, hablaríamos de una población de 2.964.623 personas entre 14 y 18
http://www.monografias.com/trabajos/adolmodin/adolmodin.shtml (3 of 9)25/05/2005 13:45:33
Adolescencia y modelos de identificación - Monografias.com
años, lo que representa el 9% del total del país, según el Censo Nacional de Población y Vivienda 1991.
Pero ningún agregado de cifras globales debe ocultar las importantes disparidades existentes entre
adolescentes de distintas regiones en lo que se refiere a conformación de la Población Económicamente
Activa (PEA), cobertura de salud, condición de alfabetismo, situación socioeconómica y fragmentación
cultural. Tomando en cuenta el Índice de Desarrollo Humano (IDC), alguna de nuestras provincias tiene
un índice cercano al de Luxemburgo o Israel y otras, al de Irak o Jordania, para ilustrar las diferencias.
Nuestra adolescencia y nuestra juventud está lejos de ser un sector social homogéneo estructuralmente.
A lo que debe agregársele la enorme segmentación cultural existente.
En definitiva, en el amplio abanico de quienes discurren por estas edades, los hay semejantes y los hay
casi irreconocibles en una suerte de taxonomía que se complejiza.
Veamos, entonces, un aspecto de la realidad relativo al sector de los adolescentes pobres.
Adolescentes de 13 a 17 años que NO ESTUDIAN NI TRABAJAN. Áreas Urbanas (GBA).
Incidencia en porcentaje
Incidencia en la población
En el
total de
Adolescentes pobres
En el
total de
Adolescentes pobres
adolesc.
Pobres
con NBI
sin NBI
adolesc.
Pobres
con NBI
sin NBI
12,7
20,4
25,0
16,3
120.700
48.400
27.600
20.800
14,2
29,2
36,6
20,1
147.700
51.800
35.700
16.100
Año
1990
1994
Fuente: CEPAL, 1996.
Puede observarse que, entre 1990 y 1994, la tendencia del conjunto de adolescentes que ni trabajan ni
estudian ya era creciente, si bien la diferencia crecía sólo un 1,5%. Debe advertirse, sin embargo, que
hablamos del período pretequila, es decir, cuando los grandes números de la economía eran bien
estimados. Hablamos de una tendencia precrisis económica.
Ahora bien, puede verse que la situación se afecta gravemente cuando consideramos, ya no el total de
los adolescentes, sino al sector de los adolescentes pobres. En este caso, se observa un incremento de 9
http://www.monografias.com/trabajos/adolmodin/adolmodin.shtml (4 of 9)25/05/2005 13:45:33
Adolescencia y modelos de identificación - Monografias.com
puntos en el período considerado, ascendiendo al 29,2% en 1994. Si, por su parte, enfocamos la mirada
en los jóvenes pobres con NBI, la situación aún se agrava más. Allí, el incremento es de 11,6 puntos,
llegando al 36,6% en 1994.
Sabemos, además, por un paper del Ministerio de Economía difundido recientemente, que en este sector
de adolescentes que pertenecen a familias pobres, la escuela es abandonada por el 48% de los alumnos,
cuya edad oscila entre los 14 y 19 años.
¿De qué adolescencia hablamos, en estos casos?
¿Qué futuro les proponemos a estos adolescentes?
3- Modelos de identificación. Identidad y consumo.
Las nuevas tecnologías reorganizan la sociedad. Y lo hacen vertiginosamente. La influencia de los
medios de comunicación audiovisuales es enorme. De un modo inédito, imponen una presencia
avasalladora frente a las dinámicas de ayer. En cada acto, aparece el mensaje. Investirse de una marca,
de una imagen, permite cierto reaseguro, da una ubicación, un lugar, una posición desde la cual mirar,
mirarse y ser mirado.
Y, junto al advenimiento masivo de las pantallas, se privilegia una nueva arquitectura de modelos, que,
por definición, deben dar bien, o sea, tener buena imagen. Modelarse una buena imagen, virtual casi,
evanescente, ocupa el lecho de la identidad. Y, en esta movida, de paso, se adjudica el status de
"objeto".
Aparecen en esta época nuevas exigencias sociales: la belleza corporal, el cuidado del cuerpo, la moda
de la exhibición. En esta película en donde la persona queda reducida a su aparecer físico, es decir, no
integral, serán habituales las dificultades para establecer vínculos satisfactorios, o sea, integros y plenos.
Tal la presencia omnipotente de la dimensión narcísica, que el otro se reduce en su aparición a la
necesidad de confirmar nuestra imagen.
No en vano, y no es juego de palabras, las modelos se han convertido en modelos de identificación para
muchas adolescentes. Valeria Mazza, Déborah Del Corral, Dolores Barreiro, son modelos "modelos".
Incluso se ha visto por allí, en el límite del buen gusto, un afiche publicitario de una nueva cerveza cuyo
nombre es "Modelo" y cuya imagen es una niña de unos 12 años vestida para matar. Casi
paradigmáticamente, aquí se dan cita en forma concurrente: la imagen, el consumo, la adolescente, el
desafío del sexo próximo. Deberíamos agradecer algo tan obvio.
Pero volviendo al tema de la imagen y el cuerpo, no podemos ignorar la creciente presencia de síntomas
de bulimia y/o anorexia en las jóvenes (también varones). Los trastornos en la alimentación que se hacen
fuertes en una época en que se introyectan demandas poco racionales de delgadez que hasta llegan a
comprometer la vida de famosas modelos, como pudimos ver el año que pasó. Claramente, no olvidamos
no singularidad de cada sujeto, pero afirmamos que las características de cada sociedad, de cada tiempo,
http://www.monografias.com/trabajos/adolmodin/adolmodin.shtml (5 of 9)25/05/2005 13:45:33
Adolescencia y modelos de identificación - Monografias.com
poseen la fuerza necesaria para sesgar las neurosis, bañando los aparatos psíquicos con significados y
sentidos epocales. No hay patologías sin historia del sujeto, pero tampoco sin historia social.
Insistimos, nuevos valores, o si esta palabra queda grande, nuevos demandas sociales: tener un cuerpo
bien trabajado, ser fuertes, bellos, poderosos. El énfasis puesto en triunfar y en ser exitoso. Claro que
para muchos, si se trata de ganar, poco importan los medios y hasta el otro se convierte en un medio, se
lo instrumentaliza. Hace un par de años se vio una publicidad en que un padre le decía a su hijo que no
debía verlo perder y el año último, surgió la polémica por la campaña de Nike, que traía estos consejos:
"Trata a tu enemigo con respeto. Aplástalo rápidamente" y "Nunca son suficientes los clavos que puedas
poner en el ataúd de tu enemigo".
Y así y todo, si se los consulta, los jóvenes afirman no tener modelos, ya que no saben en qué y quién
creer. Ya Kornblit, en un trabajo realizado con adolescentes de la Ciudad de Buenos Aires y del Gran
Buenos Aires en 1988, se encontró con que la mitad de los adolescentes de la muestra estudiada (300
casos) deshechaban como modelo de identificación a los adultos pertenecientes a sus ámbitos cotidianos
inmediatos, mostrando un nivel de escepticismo y de falta de credibilidad entonces alarmente. En
consonancia con aquel estudio, en 1989, en una encuesta realizada por la Comisión Nacional de la
Pastoral de Juventud, entre jóvenes de 16 a 28 años, frente a la pregunta sobre "modelo a imitar", 305
encuestados no respondieron a la misma, cifra equivalente al 26% de los encuestados, lo que llama
poderosamente la atención por lo preciso y poco vago de la pregunta. Además, el 8% expresaba en
forma explícita no "tener modelos a imitar". Sabemos que esta situación no ha mutado en lo sustancial,
todo lo contrario.
Y, ante este panorama, los adolescentes se repliegan en la familia, en la que dice creer la mayoría, frente
al descreimiento masivo en las instituciones (iglesia -la de mejor pobre imagen-, partidos políticos,
sindicatos, justicia, legisladores, fuerzas armadas y, obviamente, la policía). Cuando lo joven es tomado
por la sociedad como modelo de deseo, los jóvenes tienen dificultades en hallar modelos.
En efecto, podemos afirmar que en este fin de milenio, los adolescentes enfrentan un período histórico
crecientemente conflictivo en el que integrarse creativa y constructivamente a la sociedad, lugar que se
les exige pero que no se les facilita. En donde, ante la ausencia de externidades valorativas se estimula a
la "juventud" como valor en sí mismo, dimensión narcisista que da de bruces ante los hechos, mostrando
su raíz ilusoria, alimentando frustraciones y generando un sentimiento de inseguridad ante las crecientes
dificultades de inserción.
4- Consumación o consumo.
Finalmente, entramos de lleno en el fenómeno del consumismo. De los ciudadanos como modelos de
consumidores.
Retomando a García Canclini, anotamos que, cada vez más, participamos en una "socialidad" construida
predominantemente en procesos de consumo. Una participación segmentada que se vuelve "el principal
procedimiento de identificación". Como señala este autor, el consumo es "un conjunto de procesos
socioculturales en que se realizan la apropiación y los usos de los productos" y en el que se construye
http://www.monografias.com/trabajos/adolmodin/adolmodin.shtml (6 of 9)25/05/2005 13:45:33
Adolescencia y modelos de identificación - Monografias.com
buena parte de la "racionalidad integrativa y comunicativa de una sociedad".
Y, entre la creciente fragmentación y segmentación social, vemos aparecer nuevos códigos de
intercambio, ahora globalizados.
¿Cómo podrían los jóvenes resistir -deberían?- a una propuesta que ni es siquiera enunciada como tal,
sino la propia forma histórica de presentarse la sociedad misma?
Dícese, "la sociedad es de consumo".
La diferencia, una al menos, entre los jóvenes y los adultos comprometidos en la vorágine consumista, es
que, mientras los unos ya maduros articulan sus identidades deslizándose en el consumo, los otros, en
pleno desarrollo de sus capacidades, parecieran destinados a constituir su identidad en torno a aquel.
Consumir, incorporar, es un hecho egoísta por definición.
Se nos estimula a la posesión, como valor, también como signo de éxito. Y se supone que tal consumo,
nos hará exitosos, libres y felices, ¿acaso no nos lo dice a toda hora la publicidad?
Ahora bien, ¿qué hay si no podemos acceder a tal consumo?; ¿Qué de los muchos que no pueden
acceder al consumo deseado?; ¿Qué del malestar, de la frustración, de la violencia?
Así volvemos a los otros adolescentes. A los unos y los otros.
A nuestro juicio, si verdaderamente algo de la identidad misma esta en juego, no podrá sencillamente
abandonarse la in-tensión al consumo, ya que no se trata cándidamente de un tercero exterior al ser, de
un otro objeto, sino que hay algo del sujeto en juego. De allí, que no debe extrañarnos un consumo
compulsivo. La fórmula de las adicciones. Tampoco las violencias para apropiación simbólica o material.
De poderosos y famosos, de profesionales, de los pobres. Del turismo sexual a la violencia familiar. Una
campera, una vida. Todo se consume, no se ve el negocio.
Aún más, los diferentes consumos se consumen velozmente, mientras la publicidad empuja hacia la
novedad. Y hay que restablecer, de constante, el flujo del consumir.
Finalmente, no todo es consumible en forma equivalente, claro. La sociedad de consumo, sigue siendo
una sociedad de las diferencias y las jerarquías. Cada bien, cada objeto, trae sus señas de identidad,
ofrece sus rasgos a la identificación. Las nuevas identidades se integrarán diferencialmente al consumo,
de un modo u otro. Aún en su no acceso.
http://www.monografias.com/trabajos/adolmodin/adolmodin.shtml (7 of 9)25/05/2005 13:45:33
Adolescencia y modelos de identificación - Monografias.com
BIBLIOGRAFÍA
ARGENTINA. MINISTERIO DE ECONOMÍA Y OBRAS Y SERVICIOS PÚBLICOS; INSTITUTO
NACIONAL DE ESTADÍSTICAS Y CENSOS (INDEC); (1993). Censo Nacional de Población y Vivienda
1991. Buenos Aires, 1991.
ARGENTINA. MINISTERIO DE ECONOMÍA Y OBRAS Y SERVICIOS PÚBLICOS; (1996). Documento
de Trabajo Nº 13/96. Buenos Aires, 1996.
ARGENTINA. SENADO DE LA NACIÓN; (1996). Informe Argentino sobre Desarrollo Humano 1996.
Programa Argentino de Desarrollo Humano. PNUD/Comisión de Ecología y Desarrollo Humano. 1996.
BARBEITO, Alberto y LO VUOLO Rubén; (1993). Informe sobre Desarrollo Humano en Argentina.
Documentos de Trabajo Nº 10. CIEPP. 1993.
CEPAL (COMISION ECONÓMICA PARA AMÉRICA LATINA Y EL CARIBE); (1996). Panorama Social
de América Latina 1996. Santiago de Chile. 1996.
COMISIÓN NACIONAL DE LA PASTORAL DE JUVENTUD; (1989). Encuesta Nacional de los Jóvenes
para los Jóvenes. Informe Nacional. Buenos Aires. Abril de 1989.
GARCÍA CANCLINI, Néstor; (1995). Consumidores y Ciudadanos. Conflictos multiculturales de la
globalización. Ed. Grijalbo. 1995.
KORNBLIT, Ana Lía, et al; (1989). Estudios sobre Drogadicción Argentina. Ed. Nueva Visión. Buenos
Aires, 1989.
II Congreso Iberoamericano de Psicología Social
http://www.monografias.com/trabajos/adolmodin/adolmodin.shtml (8 of 9)25/05/2005 13:45:33
Adolescencia y modelos de identificación - Monografias.com
VII Congreso Argentino de Psicología Social y Política
Buenos Aires, 7 al 10 de mayo de 1997
Universidad Argentina John F. Kennedy
Mayo de 1997
Sergio Alejandro Balardini
Facultad Latinoamericana de Ciencias Sociales (FLACSO) - Sede Argentina
Proyecto Juventud
Trabajo enviado por:
Sergio Alejandro Balardini
[email protected]
Volver al inicio | Volver arriba
Términos y Condiciones - Haga Publicidad en Monografias.com - Contáctenos
© 1997 Lucas Morea / Sinexi S.A.
http://www.monografias.com/trabajos/adolmodin/adolmodin.shtml (9 of 9)25/05/2005 13:45:33
DISEÑOS EXPERIMENTALES DE INVESTIGACIÓN - Monografias.com
Regístrese
Compare
precios
Buscar:
Nuevos
Publicar
Consulte
a los
expertos
Toolbar
Foros
Ayuda
Recomendar
Buscar
Recomendamos:
Barra de
herramientas
gratuita
Avanzada
Agregar a Recomendar
favoritos
Imprimir
Bajar
Trabajo
(Descargar)
Diseños experimentales de investigación; preexperimentos, experimentos "verdaderos" y
cuasiexperimentos
Indice
1. ¿Qué es un diseño de investigación?
2. ¿Qué es un experimento?
3. ¿Cómo se logra el control y la validez interna?
4. Preexperimentos
5. ¿Qué es la validez externa?
6. ¿Qué tipo de estudio son los experimentos?
1. ¿Qué es un diseño de investigación?
Una vez definido el tipo de estudio a realizar y establecer las hipótesis de investigación, el investigador
debe concebir la manera práctica y concreta de responder a las preguntas de investigación. Esto implica
seleccionar o desarrollar un diseño de investigación y aplicarlo al contexto particular de su estudio.
Diseño se refiere al plan o estrategia concebida para responder a las preguntas de investigación. El
diseño señala al investigador lo que debe hacer para alcanzar sus objetivos de estudio, contestar las
interrogantes que se ha planteado y analizar la certeza de las hipótesis formuladas en un contexto en
particular.
Si el diseño está concebido, el producto final de un estudio tendrá mayores posibilidades de ser válido.
No es lo mismo seleccionar un tipo de diseño que otro; cada uno tiene sus características propias. La
precisión de la información obtenida puede variar en función del diseño o estrategia elegida.
http://www.monografias.com/trabajos10/cuasi/cuasi.shtml (1 of 12)25/05/2005 13:45:48
DISEÑOS EXPERIMENTALES DE INVESTIGACIÓN - Monografias.com
¿De qué tipos de diseños disponemos para investigar el comportamnento humano?
Los autores de este libro no consideran que un tipo de investigación sea mejor que otro (experimental
versus no experimental). "Los dos tipos de investigación son relevantes y necesarios, tienen un valor
propio y ambos deben llevarse a cabo". La elección sobre qué clase de investigación y diseño específico
debemos seleccionar, depende de los objetivos trazados, las preguntas planteadas, el tipo de estudio a
realizar (exploratorio, descriptivo, correlacional o explicativo) y las hipótesis formuladas.
2. ¿Qué es un experimento?
Experimento, tiene dos acepciones, una general y una particular. La regla general se refiere a "tomar una
acción" y después observar las consecuencias. Se requiere la manipulación intencional de una acción
para analizar sus posible efectos y la aceptación particular (sentido científico). "Un estudio de
investigación en el que se manipulan deliberadamente una o más variables independientes (supuestas
efectos), dentro de una situación de control para el investigador".
¿Cuál es el primer requsito de un experimento puro?
El primer requisito es la manipulación intencional de una o más variables independientes. La variable
independiente es considerada como supuesta causa en una relación entre variables; es la condición
antecedente, y al efecto provocado por dicha causa se le denomina variable dependiente (consecuente).
El investigador no puede incluir en su estudio a dos o más variables independientes.
Un experimento se lleva a cabo para analizar si una o más variables independientes afectan a una o más
variables dependientes y por qué lo hacen. En un auténtico experimento, la variable independiente resulta
de interés para el investigador por ser la variable que se hipotetiza, que será una de las causas que
producen el efecto supuesto. Para obtener respuesta de esta relación causal supuesta, el investigador
manipula la variable independiente y observa si la dependiente varía o no. Manipular es hacer variar o dar
distintos valores a la variable independiente.
La variable dependiente se mide
La variable dependiente no se manipula, sino que se mide para ver el efecto de que la manipulación de la
variable independiente tienes de ella.
Grados de manipulación de la variable independiente
La manipulación o variación de una variable independiente puede realizarse en dos o más grados. El
nivel mínimo de manipulación es dos: presencia-ausencia de la variable independiente. Cada nivel o
grado de manipulación implica un grupo en el experimento.
Presencia-ausencia
Implica un grupo a la presencia de la variable independiente y otro no. Luego los dos grupos son
comparados para ver si el grupo que fue expuesto a la variable independiente difiere del grupo que no fue
expuesto. Al primer grupo se le conoce como "grupo experimental" y al segundo se le denomina "grupo
de control".
A la presencia de la variable independiente se le llama "tratamiento experimental" o "estímulo
experimental".
En general, en un experimento puede afirmarse lo siguiente: si en ambos grupos todo fue "igual" menos
la exposición a la variable independiente, es muy razonable pensar que las diferencias entre los grupos
se deban a la presencia-ausencia de la variable independiente.
http://www.monografias.com/trabajos10/cuasi/cuasi.shtml (2 of 12)25/05/2005 13:45:48
DISEÑOS EXPERIMENTALES DE INVESTIGACIÓN - Monografias.com
Más de dos grados
Se puede hacer variar o manipular la variable independiente en cantidades o grados.
Manipular la variable independiente en varios niveles tiene la ventaja de que no sólo se puede determinar
si la presencia de la variable independiente o tratamiento experimental tiene un efecto, sino también si
distintos niveles de la variable independiente se producen diferentes efectos. Es decir, si la magnitud del
efecto (Y) depende de la intensidad del estímulo (X1, X2, X3, etcétera).
Debe haber al menos dos niveles de variación y ambos tendrán que diferir entre sí. Cuantos más niveles
mayor información, pero el experimento se va complicando: cada nivel adicional implica un grupo más.
Modalidades de manipulación en lugar de grados
La variación es provocada por categorías distintas de la variable independiente que no implican en sí
cantidades.
En ocasiones, la manipulación de la variable independiente conlleva una combinación de cantidades y
modalidades de ésta.
Finalmente, es necesario insistir que cada nivel o modalidad implica, al menos, un grupo. Si tiene tres
niveles (grados) o modalidades, se tendrán tres grupos como mínimo.
¿Cómo se define la manera en que se manipularán las variables independientes?
Al manipular una variable independiente es necesario especificar qué se va a entender por esa variable
en el experimento. Es decir, trasladar el concepto teórico a un estímulo experimental en una serie de
operaciones y actividades concretas a realizar.
Guía para sortear dificultades
Para definir cómo se va a manipular una variable es necesario:
1. Consultar experimentos antecedentes para ver si en éstos resultó la forma de manipular la
variable. Es imprescindible analizar si la manipulación de esos experimentos pueden aplicarse al
contexto específico del nuestro cómo pueden ser extrapoladas a nuestra situación experimental.
2. Evaluar la manipulación antes de que conduzca el experimento. Hay varas preguntas para evaluar
su manipulación : ¿las variables experimentales representan la variable conceptual que se tiene
en mente?, ¿los deferentes niveles de variación de la variable independiente harán que los sujetos
se comporten diferente? Si la manipulación es errónea puede pasar que: 1. el experimento no
sirva para nada; 2. vivamos en el error; y 3. tengamos resultados que no nos interesan.
Si la presencia de la variable independiente en el o los grupos experimentales es débil
probablemente no se encontrarán efectos, pero no porque no pueda haberlos.
3. Incluir verificaciones para la manipulación. Cuando se utilizan seres humanos hay varias formas
de verificar si realmente funcionó la manipulación. La primera es entrevistar a los sujetos. Una
segunda forma es incluir mediciones relativas a la manipulación durante el experimento.
¿Cuál es el segundo requisito de un experimento "puro"?
El segundo requisito es medir el efecto que la variable independiente tiene en la variable dependiente.
Esto es igualmente importante y como en la variable dependiente se observa el efecto, la medición debe
ser válida y confiable. Si no podemos asegurar que se midió adecuadamente, los resultados no servirán.
http://www.monografias.com/trabajos10/cuasi/cuasi.shtml (3 of 12)25/05/2005 13:45:48
DISEÑOS EXPERIMENTALES DE INVESTIGACIÓN - Monografias.com
En la planeación de un experimento se debe precisar cómo se van a manipular las variables
independientes y cómo a medir las dependientes.
¿Cuántas variables independientes y dependientes deben incluirse en un experimento?
No hay reglas para ello; depende de cómo haya sido planteado el problema de investigación y las
limitaciones que haya. Claro está que, conforme se aumenta el número de variables independientes,
aumentan las manipulaciones que deben hacerse y el número de grupos requeridos para el experimento.
Y entraría en juego el segundo factor mencionado (limitantes).
Por otra parte, podría decidir en cada caso (con una, dos, tres o más variables independientes) medir
más de una variable dependiente para ver el efecto de las independientes en distintas variables. Al
aumentar las variables dependientes, no tienen que aumentarse grupos, porque estas variables no se
manipulan. Lo que aumenta es el tamaño de la medición (cuestionarios con más preguntas, mayor
número de observaciones, entrevistas más largas, etcétera) porque hay más variables que medir.
¿Cuál es el tercer requisito de un experimento "puro"?
El tercer requisito que todo experimento "verdadero" debe cumplir es el control o validez interna de la
situación experimental. El término "control" tiene diversas connotaciones dentro de la experimentación.
Sin embargo, su acepción más común es que, si en el experimento se observa que una o más variables
independientes hacen variar a las dependientes, la variación de estas últimas se deba a la manipulación y
no a otros factores o causas; si se observa que una o más independientes no tienen efecto sobre las
dependientes, se pueda estar seguro de ello. En términos coloquiales, "control" significa saber qué está
ocurriendo realmente con la relación entre las variables independientes y las dependientes.
Cuando hay control podemos conocer la relación causal. En la estrategia de la investigación
experimental, "el investigador no manipula una variable sólo para comprobar lo que le ocurre con al otra,
sino que al efectuar un experimento es necesario realizar una observación controlada".
Lograr "control" en un experimento es controlar la influencia de otras variables extrañas en las variables
dependientes, para que así podamos saber realmente si las variables independientes tienen o no efecto
en la dependientes.
Fuentes de validación interna
Existen diversos factores o fuentes que pueden hacer que nos confundamos y no sepamos si la
presencia de una variable independiente surte o no un verdadero efecto. Se trata de explicaciones rivales
a la explicación de que las variables independientes afectan a las dependientes. A estas explicaciones se
les conoce como fuentes de invalidación interna porque atentan contra la validez interna de un
experimento. La validez interna se relaciona con la calidad del experimento y se logra cuando hay control,
cuando los grupos difieren entre sí solamente en la exposición a la variable independiente (presenciaausencia o en grados), cuando las mediciones de la variable dependiente son confiables y válidas, y
cuando el análisis es el adecuado para el tipo de datos que estamos manejando. El control en un
experimento se alcanza eliminando esas explicaciones rivales o fuentes de invalidación interna.
1. Historia. Acontecimientos que ocurren durante el desarrollo del experimento, afectan a al variable
dependiente y pueden confundir los resultados experimentales.
2. Maduración. Procesos internos de los participantes que operan como consecuencia del tiempo y
que afectan los resultados del experimento (cansancio, hambre, aburrición, aumento en la edad y
cuestiones similares).
3. Inestabilidad. Poca o nula confiabilidad de las mediciones, fluctuaciones en las personas
http://www.monografias.com/trabajos10/cuasi/cuasi.shtml (4 of 12)25/05/2005 13:45:48
DISEÑOS EXPERIMENTALES DE INVESTIGACIÓN - Monografias.com
4.
5.
6.
7.
8.
9.
10.
seleccionadas o componentes del experimento, o inestabilidad autónoma de mediciones repetidas
aparentemente "equivalentes".
Administración de pruebas. Se refiere al efecto que puede tener la aplicación de una prueba sobre
las puntuaciones de pruebas subsecuentes.
Instrumentación. Esta fuente hace referencia a cambios en los instrumentos de medición o en os
observadores participantes que pueden producir variaciones en los resultados que se obtengan.
Regresión estadística. Provocado por una tendencia que los sujetos seleccionados sobre la base
de puntuaciones extremas, muestran a regresar, en pruebas posteriores, aun promedio en la
variable en la que fueron seleccionados.
Selección. Elegir los sujetos de tal manera que los grupos no sean equiparables. Es decir, si no se
escogen los sujetos de los grupos asegurándose su equivalencia, la selección puede resultar
tendenciosa.
Mortalidad experimental. Se refiere a diferencias en la pérdida de participantes entre los grupos
que se comparan.
Interacción entre selección y maduración. Se trata de un efecto de maduración que no es igual en
los grupos del experimento, debida a algún factor de selección. La selección da origen a diferentes
tasas de maduración a cambio autónomo entre grupos.
Otras interacciones.
El experimentador como fuente de invalidación interna
Otra razón que puede atentar contra la interpretación correcta y certera de los resultados de un
experimento es la interacción entre los sujetos y el experimentador, la cual puede ocurrir de diferentes
formas. Los sujetos pueden entrar al experimento con ciertas actitudes, expectativas y prejuicios que
pueden alterar su comportamiento durante el estudio. Recordemos que las personas que intervienen en
un experimento, de una manera u otra, tienen motivos precisamente para esa participación y su papel
será activo en muchas ocasiones.
El mismo experimentador puede afectar los resultados de la investigación, pues no es un observador
pasivo que no interactúa, sino un observador activo que puede influir en los resultados del estudio.
Además tiene una serie de motivos que lo llevan a realizar su experimento y desea probar su hipótesis.
Ello puede conducir a que afecte el comportamiento de los sujetos en dirección de su hipótesis.
Tampoco los sujetos que participan en el experimento deben conocer las hipótesis y condiciones
experimentales; incluso frecuentemente es necesario distraerlos de los verdaderos propósitos del
experimento, aunque al finalizar éste se les debe dar una explicación completa del experimento.
3. ¿Cómo se logra el control y la validez interna?
El control en un experimento logra la validez interna, y el control se alcanza mediante: 1. varios grupos de
comparación (dos como mínimo); y 2. equivalencia de los grupos en todo, excepto la manipulación de las
variables independientes.
Varios grupos de comparación
Es necesario que en un experimento se tengan por lo menos dos grupos que comparar. En primer
término, porque si nada más se tiene un grupo no se puede saber si influyeron las fuentes de invalidación
interna o no.
No lo podemos saber porque no hay medición del nivel de prejuicio al inicio del experimento; es decir, no
existe punto de comparación.
http://www.monografias.com/trabajos10/cuasi/cuasi.shtml (5 of 12)25/05/2005 13:45:48
DISEÑOS EXPERIMENTALES DE INVESTIGACIÓN - Monografias.com
Con un solo grupo no podemos estar seguros de que los resultados se deben al estímulo experimental o
a otras razones. Los "experimentos" con un grupo se basan en sospechas o en lo que "aparentemente
es", pero faltan fundamentos. Se corre el riesgo de seleccionar sujetos atípicos y el riesgo de que
intervengan la historia, la maduración, administración de prueba, instrumentaciones y demás fuentes de
invalidación interna, sin que el experimentador se dé cuenta.
Por ello, el investigador debe tener al menos un punto de comparación: dos grupos, uno al que se le
administra el estímulo y otro al que no (el grupo de control). Al hablar de manipulación, a veces se
requiere tener varios grupos, cuando se desea averiguar el efecto de distintos niveles de la variable
independiente.
Equivalencia de los grupos
Pero para tener control no basta tener dos o más grupos, sino que deben ser similares en todo, menos la
manipulación de la variable independiente. El control implica que todo permanece constante menos la
manipulación. Si entre los grupos que conforman el experimento todo es similar o equivalente, excepto la
manipulación de la independiente, las diferencias entre los grupos pueden atribuirse a ella y no a otros
factores (entre los cuales están las fuentes de invalidación interna).
Lo mismo debe hacerse en la experimentación de la conducta humana, debemos tener varios grupos de
comparación.
Los grupos deben ser: inicialmente equivalentes y equivalentes durante todo el desarrollo del
experimento, menos por lo que respecta a la variable independiente. Asimismo, los instrumentos de
medición deben ser iguales y aplicados de la misma manera.
Equivalencia inicial
Implica que los grupos son similares entre sí al momento de iniciarse el experimento. Si inicialmente no
son equiparables, digamos en cuanto a motivación o conocimientos previos, las diferencias entre los
grupos no podrán ser atribuidas con certeza a la manipulación de la variable independiente. Queda la
duda de si se deben a dicha manipulación o a que los grupos no eran inicialmente equivalentes.
La equivalencia inicial no se refiere a equivalencias entre individuos, porque las personas tenemos por
naturales diferencias individuales; sino a la equivalencia entre grupos. Si tenemos en un grupo hay
personas muy inteligentes también en el otro grupo. Y así con todas las variables que puedan afectar a la
variable dependiente o dependientes, además de la variable independiente. El promedio de inteligencia,
motivación, conocimientos previos, interés por los contenidos y demás variables, debe ser el mismo en
los dos grupos. Si bien no exactamente el mismo, no debe haber una diferencia significativa en esas
variables entre los grupos.
Equivalencia durante el experimento
Durante el experimento los grupos deben mantenerse similares en los aspectos concernientes al
tratamiento experimental excepto excepto en la manipulación de la variable independiente: mismas
instrucciones (salvo variaciones parte de esa manipulación), personas con las que tratan los sujetos,
maneras de recibirlos, lugares con características semejantes (iguales objetos en las habitaciones o
cuartos, clima, ventilación, sonido ambiental, etc.), misma duración del experimento, mismo momento y
en fin todo lo que sea parte del experimento. Cuanto mayor sea la equivalencia durante su desarrollo,
mayor control y posibilidad de que, si observamos o no efectos, estemos seguros de que verdaderamente
los hubo o no.
Cuando trabajamos simultáneamente con varios grupos, es difícil que las personas que dan las
http://www.monografias.com/trabajos10/cuasi/cuasi.shtml (6 of 12)25/05/2005 13:45:48
DISEÑOS EXPERIMENTALES DE INVESTIGACIÓN - Monografias.com
instrucciones y vigilan el desarrollo de los grupos sean las mismas.
¿Cómo se logra la equivalencia inicial?: asignación al azar
Existe un método para alcanzar esta equivalencia: la asignación aleatoria o al azar de los sujetos a los
grupos del experimento. La asignación al azar nos asegura probabilísticamente que dos o más grupos
son equivalentes entre sí. Es una técnica de control que tiene como propósito dar al investigador la
seguridad de que variables extrañas, conocida o desconocidas, no afectarán sistemáticamente los
resultados del estudio. Esta técnica diseñada por Sir Ronald A. Fisher, funciona para hacer equivalentes
a grupos.
La asignación al azar puede llevarse a cabo mediante pedazos de papel. Se escribe el nombre de cada
sujeto (o algún tipo de clave que lo identifique) en uno de los pedazos de papel, luego se juntan todos los
pedazos en algún recipiente, se revuelven y se van sacando sin ver para formar los grupos.
Cuando se tienen dos grupos, la aleatorización puede llevarse a cabo utilizando una moneda no cargada.
Se lista a los sujetos y se designa qué lado de la moneda va a significar el grupo 1 y qué lado el grupo 2.
Otra es utilizar una tabla de números aleatorios que incluye números del 0 al 9, y su secuencia es
totalmente al azar (no hay orden, no patrón o secuencia). Primero, se selecciona al azar una página de la
tabla preguntándole un número del 1 al X número de páginas que contenga la tabla. En la página
seleccionada se elige un punto cualquiera (bien numerando columnas o renglones y eligiendo al azar una
columna o renglón, o bien cerrando los ojos y colocando la punta de un lápiz sobre algún punto de la
página). Posteriormente, se lee una secuencia de dígitos en cualquier dirección (vertical, horizontal o
diagonalmente). Una vez que se obtuvo dicha secuencia, se enumeran los nombres de los sujetos por
orden alfabético o de acuerdo con un ordenamiento al azar, colocando cada nombre junto a un dígito,
nones a un grupo y los pares al otro.
La asignación al azar produce control, pues las variables que deben ser controladas (variables extrañas y
fuentes de invalidación interna) son distribuidas de la misma manera en los grupos del experimento. Así
la influencia de otras variables que no sean la independencia se mantiene constante porque éstas no
pueden ejercer ninguna influencia diferencial en la variable dependiente o variables dependientes.
La asignación aleatoria funciona mejor cuanto mayor sea el número de sujetos con que se cuenta para el
experimento, es decir, cuanto mayor sea el tamaño de los grupos. Los autores recomiendan que para
cada grupo se tengan, por lo menos, 15 personas.
Otra técnica para lograr la equivalencia inicial: el emparejamiento
Otro método para intentar hacer inicialmente equivalentes los grupos es el emparejamiento o técnica de
apareo (matching). El proceso consiste en igualar a los grupos en relación con alguna variable específica,
que puede influir de modo decisivo en la variable dependiente o las variables dependientes.
El primer paso es elegir a esa variable de acuerdo con algún criterio teórico. La variable seleccionada
debe estar muy relacionada con las variables dependientes. Debe pensarse cuál es la variable cuya
influencia sobre los resultados del experimento resulta más necesario controlar y buscar el apareo de los
grupos en esa variable.
El segundo caso consiste en obtener una medición de la variable elegida para emparejar a los grupos.
Esta medición puede existir o puede efectuarse entes del experimento.
El tercer paso consiste en ordenar a los sujetos en la variable sobre la cual se va a efectuar el
emparejamiento (de las puntuaciones más altas a las más bajas).
El cuarto paso es formar parejas según la variable de apareamiento e ir asignado a cada integrante de
cada pareja a los grupos del experimento, buscando un balance entre dichos grupos.
También podría intentarse emparejar los grupos en dos variables, pero ambas deben estar relacionadas,
porque de lo contrario puede resultar muy difícil el emparejamiento.
http://www.monografias.com/trabajos10/cuasi/cuasi.shtml (7 of 12)25/05/2005 13:45:48
DISEÑOS EXPERIMENTALES DE INVESTIGACIÓN - Monografias.com
La asignación al azar es la técnica ideal para lograr la equivalencia inicial
La asignación al azar es un mejor método para hacer equivalentes los grupos (más preciso y confiable).
El emparejamiento no la sustituye. En cambio, la aleatorización garantiza que otras variables no van a
afectar a las dependientes ni confundir al experimentador. La bondad de la asignación al azar de los
sujetos a los grupos de un diseño experimental es que el procedimiento garantiza absolutamente que en
promedio los sujetos no diferirán en ninguna característica más de lo que pudiera esperarse por pura
casualidad, antes de que participen en los tratamientos experimentales.
4. Preexperimentos
Los preexperimentos se llaman así, porque su grado de control es mínimo
1. Estudio de caso con una sola medición
Consiste en administrar un estímulo o tratamiento a un grupo y después aplicar una medición en una o
más variables para observar cuál es el nivel del grupo en estas variables.
Este diseño no cumple con los requisitos de un "verdadero" experimento. No hay manipulación de la
variable independiente. El diseño adolece de los requisitos para lograr el control experimental: tener
varios grupos de comparación. No se puede establecer causalidad con certeza. No se controlan las
fuentes de invalidación interna.
2. Diseño de preprueba-postprueba con un solo grupo
A un grupo se le aplica una prueba previa al estímulo o tratamiento experimental: después se le
administra el tratamiento y finalmente se le aplica una prueba posterior al tratamiento.
El diseño ofrece una ventaja sobre el interior, hay un punto de referencia inicial para ver qué nivel tenía el
grupo en la variables dependientes antes del estímulo. Es decir, hay un seguimiento del grupo. Sin
embargo, el diseño no resulta conveniente para fines científicos: no hay manipulación ni grupo de
comparación y además varias fuentes de invalidación interna pueden actuar.
Por otro lado, se corre el riesgo de elegir a un grupo atípico o que en el momento del experimento no se
encuentre en su estado normal. Tampoco se puede establecer con certeza la causalidad.
Los dos diseños preexperimentales no son adecuados para el establecimiento de relaciones entre la
variable independiente y la variable dependiente o dependientes. Son diseño que se muestran
vulnerables en cuanto a la posibilidad de control y validez interna. Deben usarse sólo como ensayos de
otros experimentos con mayor control.
Los diseños preexperimentales pueden servir como estudios exploratorios, pero sus resultados deben
observarse con precaución. De ellos no pueden sacarse conclusiones seguras de investigación. Abren el
camino, pero de ellos deben derivarse estudios más profundos.
Experimentos "verdaderos"
Los experimentos "verdaderos" son aquellos que reúnen los dos requisitos para lograr el control y la
validez interna: 1) grupos de comparación (manipulación de la variable independiente o de varias
independientes); y 2) equivalencia de los grupos. Pueden abracar yuna o más variables independientes y
una o más dependientes. Pueden utilizar prepruebas y postpruebas para analizar la evolución de los
grupos antes y después del tratamiento experimental. La postprueba es necesaria para determinar los
efectos de las condiciones experimentales.
1. Diseño con postpruebas únicamente y grupo de control
Este diseño incluye dos grupos, uno recibe el tratamiento experimental y el otro no(grupo de control). Es
decir, la manipulación de la variable independiente alcanza sólo dos niveles: presencia y ausencia. Los
sujetos son asignados a los grupos de manera aleatoria. Después de que concluye el periodo
experimental, a ambos grupos se les administra una medición sobre la variable dependiente en estudio.
http://www.monografias.com/trabajos10/cuasi/cuasi.shtml (8 of 12)25/05/2005 13:45:48
DISEÑOS EXPERIMENTALES DE INVESTIGACIÓN - Monografias.com
En este diseño, la única diferencia entre los grupos debe ser la presencia-ausencia de la variable
independiente.
La prueba estadística que suele utilizarse en este diseño para comparar a los grupos es la prueba "t" para
grupos correlacionados, al nivel de medición por intervalos.
El diseño con postprueba únicamente y grupo de control puede extenderse para incluir más de dos
grupos, se usan dos o más tratamientos experimentales, además del grupo de control.
Si se carece de grupo de control, el diseño puede llamarse "diseño con grupos aleatorizados y
postprueba únicamente".
En el diseño con postprueba únicamente y grupo de control, así como en sus posibles variaciones y
extensiones, se logra controlar todas las fuentes de invalidación interna.
2. Diseño con preprueba-postprueba y grupo de control
Este diseño incorpora la administración de prepreubas a los grupos que componen el experimento. Los
sujetos son asignados al azar a los grupos, después a éstos se les administra simultáneamente la
preprueba, un grupo recibe el tratamiento experimental y otro no (es el grupo de control); y finalmente se
les administra, también simultáneamente una postprueba.
La adición de la preprueba ofrece dos ventajas: primera, las puntuaciones de las prepruebas pueden
usarse para fines de control en el experimento, al compararse las prepruebas de los grupos se puede
evaluar qué tan adecuada fue la aleatorización. La segunda ventaja reside en que se puede analizar el
puntaje ganancia de cada grupo (la diferencia entre la preprueba y la postprueba).
El diseño controla todas las fuentes de invalidación interna por las mismas razones que se argumentaron
en el diseño anterior (diseño con postprueba únicamente y grupo de control). Lo que influye en un grupo
deberá influir de la misma manera en el otro, para mantener la equivalencia de los grupos.
5. ¿Qué es la validez externa?
Un experimento debe buscar ante todo validez interna; es decir, confianza en los resultados. Lo primero
es eliminar las fuentes que atentan contra dicha validez. Es muy deseable que el experimento tenga
validez externa. La validez externa se refiere a qué tan generalizables son los resultados de un
experimento a situaciones no experimentales y a otros sujetos o poblaciones.
Fuentes de invalidación externa
Factores que pueden amenazar la validez externa, los más comunes son los siguientes:
1. Efecto reactivo o de interacción de las pruebas
Se presenta cuando la preprueba aumenta o disminuye la sensibilidad o la calidad de la reacción de los
sujetos a la variable experimental, haciendo que los resultados obtenidos para una población con
preprueba no pueden generalizarse a quienes forma parte de esa población pero sin preprueba.
2. Efecto de interacción entre los errores de selección y el tratamiento experimental
Este factor se refiere a que se elijan personas con una o varias características que hagan que le
tratamiento experimental produzca un efecto, que no se daría si las personas no tuvieran esas
características.
3. Efectos reactivos de los tratamientos experimentales
La "artificialidad" de las condiciones puede hacer el contexto experimental resulte atípico respecto a la
manera en que se aplica regularmente el tratamiento.
4. Interferencia de tratamientos múltiples
Si los tratamientos no son de efecto reversible; es decir, si no se pueden borrar sus efectos, las
conclusiones solamente podrán hacerse extensivas a las personas que experimentaron la misma
secuencia de tratamientos.
http://www.monografias.com/trabajos10/cuasi/cuasi.shtml (9 of 12)25/05/2005 13:45:48
DISEÑOS EXPERIMENTALES DE INVESTIGACIÓN - Monografias.com
5. Imposibilidad de replicar los tratamientos
Cuando los tratamientos son tan complejos que no pueden replicarse en situaciones no experimentales,
es difícil, es difícil generalizar a éstas.
Para lograr una mayor validez externa, es conveniente tener grupos lo más perecidos posible a la
mayoría de las personas a quienes se desea generalizar y repetir el experimento varias veces con
diferentes grupos (hasta donde el presupuesto y los costos de tiempo lo permitan). También, tratar de que
el contexto experimental sea lo más similar posible al contexto que se pretende generalizar.
¿Cuáles pueden ser los contextos de experimentos?
Se han distinguido dos contextos en donde puede tomar lugar un diseño experimental: laboratorio y
campo, Experimento de laboratorio: "un estudio de investigación en el que la variancia" (efecto) "de todas
o casi todas las variables independientes influyentes posibles no pertinentes al problema inmediato de la
investigación se mantiene reducida" (reducido el efecto) "en un mínimo". Experimento de campo: "un
estudio de investigación en una situación realista en la que una o más variables independientes son
manipuladas por el experimentador en condiciones tan cuidadosamente controladas como lo permite la
situación". La diferencia esencial entre ambos contextos es la "realidad" con que los experimentos se
llevan a cabo, el grado en que el ambiente es natural para los sujetos.
Los experimentos de laboratorio generalmente logran un control más riguroso que los experimentos de
campo, pero antes estos últimos suelen tener mayor validez externa. Ambos tipos de experimento son
deseables.
Algunos han acusado a los experimentos de laboratorio de "artificialidad", de tener poca validez externa,
pero los objetivos primarios de un experimento verdadero son descubrir relaciones (efectos) en
condiciones "puras" y no contaminadas, probar predicciones de teorías y refinar teorías e hipótesis.
6. ¿Qué tipo de estudio son los experimentos?
Debido a que analizan las relaciones entre una o varias variables independientes y una o varias
dependientes y los efectos causales de las primeras sobre las segundas.
Emparejamiento En Lugar De Asignación Al Azar
Este método es menos preciso que la asignación al azar. Sin embargo, si se lleva a cabo con rigor, se
tienen grupos grandes y se posee información que indica que los grupos no son diferentes, se puede
lograr un alto grado de equivalencia inicial entre grupos.
¿Qué otros experimentos existen?: Cuasiexperimentos
Los diseños cuasiexperimentales también manipulan deliberadamente al menos una variable
independiente, solamente que difieren de los experimentos "verdaderos" en el gardo de seguridad o
confiabilidad que pueda tenerse sobre la equivalencia inicial de los grupos. En los diseños
cuasiexperimentales los sujetos no son asignados al azar a los grupos ni emparejados, sino que dichos
grupos ya estaban formados antes del experimento, son grupos intactos.
Problemas de los diseños cuasiexperimentales
La falta de aleatorización introduce posibles problemas de validez interna y externa.
Debido a los problemas potenciales de validez interna, en estos diseños el investigador debe intentar
establecer la semejanza entre los grupos, esto requiere considerar las características o variables que
puedan estar relacionadas con las variables estudiadas.
http://www.monografias.com/trabajos10/cuasi/cuasi.shtml (10 of 12)25/05/2005 13:45:48
DISEÑOS EXPERIMENTALES DE INVESTIGACIÓN - Monografias.com
Los cuasiexperiemntos difieren de los experimentos "verdaderos" en la equivalencia inicial de los grupos
(los primeros trabajan con grupos intactos y los segundos utilizan un método para hacer equivalentes a
los grupos). Sin embargo, esto quiere decir que sea imposible tener un caso de cuasiexperimento donde
los grupos sean equiparables en las variables relevantes para el estudio.
Tipos de diseños cuasiexperimentales
Con excepción de la diferencia que acabamos de mencionar, los cuasiexperimentos son muy parecidos a
los experimentos "verdaderos". Por lo tanto, podemos decir que hay casi tantos diseños
cuasiexperiemntales como experimentales "verdaderos". Sólo que no hay asignación al azar o
emparejamiento. Pero por lo demás son iguales, la interpretación es similar, las comparaciones son las
mismas y los análisis estadísticos iguales (salvo que a veces se consideran las pruebas para datos no
correlacionados).
1. Diseño con postprueba únicamente y grupos intactos
Este primer diseño utiliza dos grupos: uno recibe el tratamiento experimental y el otro no. Los grupos son
comparados en la postprueba para analizar si el tratamiento experimental tuvo un efecto sobre la variable
dependiente.
Si los grupos no son equiparables entre sí, las diferencias en las postpruebas de ambos grupos pueden
ser atribuidas a la variable independiente pero también a otras razones diferentes, y lo peor es que el
investigador puede no darse cuenta de ello.
Por ello es importante que los grupos sean inicialmente comparables, y que durante el experimento no
ocurra algo que los haga diferentes, con excepción de la presencia-ausencia del tratamiento experimental.
Recuérdese que los grupos son intactos, no se crean, ya se habían constituido por motivos diferentes al
cuasiexperimento.
2. Diseño de prepuebas-postprueba y grupos intactos (uno de ellos de control)
Este diseño es similar al que incluye postprueba únicamente y grupos intactos, solamente que a los
grupos se les administra una preprueba. La cual puede servir para verificar la equivalencia inicial de los
grupos (si son equiparables no debe haber diferencias significativas entre las prepruebas de los grupos).
Las posibles comparaciones entre las mediciones de la variable dependiente y las interpretaciones son
las mismas que en el diseño experimental de preprueba-postprueba con grupo de control solamente que
en este segundo diseño cuasiexperimental, los grupos son intactos y en la interpretación de resultados
debemos tomarlo en cuenta.
Pasos De Un Experimento O Cuasiexperimento
Los principales pasos en el desarrollo de un experimento o cuasiexperimento, son:
Paso 1:
Decidir cuántas variables independientes y dependientes deberán ser incluidas en el experimento o
cuasiexperimento.
Paso 2:
Elegir los niveles de manipulación de las variables independientes y traducirlos en tratamientos
experimentales
Paso 3:
Desarrollar el instrumento o instrumentos para medir la(s) variable(s) dependiente(s).
Paso 4:
Seleccionar una muestra de personas para el experimento (idealmente representativa de la población).
Paso 5:
Reclutar a los sujetos del experimento o cuasiexperimento. Esto implica tener contacto con ellos, darles
las explicaciones necesarias e indicarles el lugar, día, hora y persona con quien deben presentarse.
Siempre es conveniente darles el máximo de facilidades para que acudan al experimento.
http://www.monografias.com/trabajos10/cuasi/cuasi.shtml (11 of 12)25/05/2005 13:45:48
DISEÑOS EXPERIMENTALES DE INVESTIGACIÓN - Monografias.com
Paso 6:
Seleccionar el diseño experimental o cuasiexperimental apropiado para muestras, hipótesis, objetivos y
preguntas de investigación.
Paso 7:
Planear cómo vamos a manejar a los sujetos que participen en el experimento. Es decir, elaborar una ruta
crítica de qué van a hacer los sujetos desde que llegan al lugar del experimento hasta que se retiran
(paso a paso).
Paso 8:
En el caso de experimentos "verdaderos", dividirlos al azar o emparejarlos; y en el caso de
cuasiexperimentos analizar cuidadosamente las propiedades de los grupos intactos.
Paso 9:
Aplicar las prepruebas (cuando las haya), los tratamientos respectivos (cuando no se trate de grupos de
control) y las postpruebas.
Resulta conveniente tomar nota del desarrollo del experimento. Ello nos ayudará a analizar la posible
influencia de variables extrañas que generan diferencias entre los grupos y será un material invaluable
para la interpretación de los resultados.
Trabajo enviado por:
Maribel Gonzalez Campos
[email protected]
Volver al inicio | Volver arriba
Términos y Condiciones - Haga Publicidad en Monografias.com - Contáctenos
© 1997 Lucas Morea / Sinexi S.A.
http://www.monografias.com/trabajos10/cuasi/cuasi.shtml (12 of 12)25/05/2005 13:45:48
Metodos- Monografias.com
Regístrese
Compare
precios
Buscar:
Nuevos
Consulte
a los
expertos
Publicar
Toolbar
Foros
Ayuda
Recomendar
Buscar
Recomendamos:
Barra de
herramientas
gratuita
Avanzada
Agregar a Recomendar
favoritos
Imprimir
Bajar
Trabajo
(Descargar)
Métodos
1.
2.
3.
4.
5.
6.
7.
8.
9.
10.
11.
12.
13.
14.
15.
16.
17.
18.
19.
20.
Introducción
Método lógico deductivo
Método hipotético-deductivo
Método lógico inductivo
Método lógico: la analogía
El método histórico
Método sintético
Método analítico
Método de la abstracción
Método de la concreción
Método genético
Método de la modelación
Método sistémico
Método dialéctico
Métodos empiricos
Observación científica
La experimentación científica
La medición
El mejor Método de investigación es ...
Bibliografía
INTRODUCCIÓN
¿Existirán reglas fáciles y precisas para realizar una investigación científica? El investigador debe contar,
http://www.monografias.com/trabajos11/metods/metods.shtml (1 of 9)25/05/2005 13:46:15
Metodos- Monografias.com
si no con algo definitivo e infalible si por lo menos con normas elementales que le ahorren despilfarro de
esfuerzos y tiempo.
Por esta razón, dedicare la primera parte de este trabajo a nombrar y explicar de manera general, si no
todos, por lo menos los métodos mas conocidos y prácticos de investigación científica, todo esto con
miras de señalar las diferentes estrategias que tenemos a la mano y que podemos usar en nuestros
futuros trabajos como ingenieros de sistemas, ya que nuestro campo de desarrollo principalmente es el
de solucionar problemas de diversa índole.
En la segunda parte, argumentare a modo personal el método que en este momento e instante de mi
carrera, considero como el mas adecuado para una investigación, claro esta, sin dejar de lado que todos
los métodos se complementan.
Concepto de método de investigación
"Es una especie de brújula en la que no se produce automáticamente el saber, pero que evita perdernos
en el caos aparente de los fenómenos, aunque solo sea porque nos indica como no plantear los
problemas y como no sucumbir en el embrujo de nuestros prejuicios predilectos."
El método independiente del objeto al que se aplique, tiene como objetivo solucionar problemas.
Las diversas clases de métodos de investigación
Podemos establecer dos grandes clases de métodos de investigación : los métodos lógicos y los
empíricos. Los primeros son todos aquellos que se basan en la utilización del pensamiento en sus
funciones de deducción, análisis y síntesis, mientras que los métodos empíricos, se aproximan al
conocimiento del objeto mediante sus conocimiento directo y el uso de la experiencia, entre ellos
encontramos la observación y la experimentación.
MÉTODO LÓGICO DEDUCTIVO
Mediante ella se aplican los principios descubiertos a casos particulares, a partir de un enlace de juicios.
El papel de la deducción en la investigación es doble:
a. Primero consiste en encontrar principios desconocidos, a partir de los conocidos. Una ley o
principio puede reducirse a otra mas general que la incluya. Si un cuerpo cae decimos que pesa
porque es un caso particular de la gravitación
b. También sirve para descubrir consecuencias desconocidas, de principios conocidos. Si sabemos
que la formula de la velocidad es v=e/t, podremos calcular la velocidad de un avión. La
matemática es la ciencia deductiva por excelencia; parte de axiomas y definiciones.
MÉTODO DEDUCTIVO DIRECTO – INFERENCIA O CONCLUSIÓN INMEDIATA. Se obtiene el juicio de
http://www.monografias.com/trabajos11/metods/metods.shtml (2 of 9)25/05/2005 13:46:15
Metodos- Monografias.com
una sola premisa, es decir que se llega a una conclusión directa sin intermediarios. Ejemplo:
"Los libros son cultura"
"En consecuencia, algunas manifestaciones culturales son libros"
MÉTODO DEDUCTIVO INDIRECTO – INFERENCIA O CONCLUSIÓN MEDIATA - FORMAL. Necesita
de silogismos lógicos, en donde silogismo es un argumento que consta de tres proposiciones, es decir se
comparan dos extremos(premisas o terminos) con un tercero para descubrir la relación entre ellos. La
premisa mayor contiene la proposición universal, la premisa menor contiene la proposición particular, de
su comparación resulta la conclusión. Ejemplo:
"Los ingleses son puntuales"
"William es ingles"
"Por tanto, William es puntual"
MÉTODO HIPOTÉTICO-DEDUCTIVO
Un investigador propone una hipótesis como consecuencia de sus inferencias del conjunto de datos
empíricos o de principios y leyes más generales. En el primer caso arriba a la hipótesis mediante
procedimientos inductivos y en segundo caso mediante procedimientos deductivos. Es la vía primera de
inferencias lógico deductivas para arribar a conclusiones particulares a partir de la hipótesis y que
después se puedan comprobar experimentalmente.
MÉTODO LÓGICO INDUCTIVO
Es el razonamiento que, partiendo de casos particulares, se eleva a conocimientos generales. Este
método permite la formación de hipótesis, investigación de leyes científicas, y las demostraciones. La
inducción puede ser completa o incompleta.
INDUCCIÓN COMPLETA. La conclusión es sacada del estudio de todos los elementos que forman el
objeto de investigación, es decir que solo es posible si conocemos con exactitud el numero de elementos
que forman el objeto de estudio y además, cuando sabemos que el conocimiento generalizado pertenece
a cada uno de los elementos del objeto de investigación. Las llamadas demostraciones complejas son
formas de razonamiento inductivo, solo que en ellas se toman muestras que poco a poco se van
articulando hasta lograr el estudio por inducción completa. Ejemplo:
"Al estudiar el rendimiento académico de los estudiantes del curso de tercero de administración,
estudiamos los resultados de todos los estudiantes del curso, dado que el objeto de estudio es
relativamente pequeño, 25 alumnos. Concluimos que el rendimiento promedio es bueno. Tal conclusión
es posible mediante el análisis de todos y cada uno de los miembros del curso."
http://www.monografias.com/trabajos11/metods/metods.shtml (3 of 9)25/05/2005 13:46:15
Metodos- Monografias.com
INDUCCIÓN INCOMPLETA: Los elementos del objeto de investigación no pueden ser numerados y
estudiados en su totalidad, obligando al sujeto de investigación a recurrir a tomar una muestra
representativa, que permita hacer generalizaciones. Ejemplo:
"los gustos de los jóvenes colombianos en relación con la música"
El método de inducción incompleta puede ser de dos clases:
a. Método de inducción por simple enumeración o conclusión probable. Es un método utilizado en
objetos de investigación cuyos elementos son muy grandes o infinitos. Se infiere una conclusión
universal observando que un mismo carácter se repite en una serie de elementos homogéneos,
pertenecientes al objeto de investigación, sin que se presente ningún caso que entre en
contradicción o niegue el carácter común observado. La mayor o menor probabilidad en la
aplicación del método, radica en el numero de casos que se analicen, por tanto sus conclusiones
no pueden ser tomadas como demostraciones de algo, sino como posibilidades de veracidad.
Basta con que aparezca un solo caso que niegue la conclusión para que esta sea refutada como
falsa.
b. Método de inducción científica. Se estudian los caracteres y/o conexiones necesarios del objeto de
investigación, relaciones de causalidad, entre otros. Este método se apoya en métodos empíricos
como la observación y la experimentación. Ejemplo:
"Sabemos que el agua es un carácter necesario para todos los seres vivos, entonces
podemos concluir con certeza que las plantas necesitan agua".
En el método de inducción encontramos otros métodos para encontrar causas a partir de métodos
experimentales, estos son propuestos por Mill:
Método de concordancia: Compara entre si varios casos en que se presenta un fenómeno natural y
señala lo que en ellos se repite, como causa del fenómeno.
Método de diferencia: Se reúnen varios casos y observamos que siempre falta una circunstancia que no
produce el efecto, permaneciendo siempre todas las demás circunstancias, concluimos que lo que
desaparece es la causa de lo investigado.
Método de variaciones concomitantes: Si la variación de un fenómeno se acompaña de la variación de
otro fenómeno, concluimos que uno es la causa de otro.
Método de los residuos: Consiste en ir eliminando de un fenómeno las circunstancia cuyas causas son
ya conocidas. La circunstancia que queda como residuo se considera la causa del fenómeno.
MÉTODO LÓGICO: LA ANALOGÍA
Consiste en inferir de la semejanza de algunas características entre dos objetos, la probabilidad de que
http://www.monografias.com/trabajos11/metods/metods.shtml (4 of 9)25/05/2005 13:46:15
Metodos- Monografias.com
las características restantes sean también semejantes. Los razonamientos analógicos no son siempre
validos.
EL MÉTODO HISTÓRICO
Está vinculado al conocimiento de las distintas etapas de los objetos en su sucesión cronológica, para
conocer la evolución y desarrollo del objeto o fenómeno de investigación se hace necesario revelar su
historia, las etapas principales de su desenvolvimiento y las conexiones históricas fundamentales.
Mediante el método histórico se analiza la trayectoria concreta de la teoría, su condicionamiento a los
diferentes períodos de la historia. Los métodos lógicos se basan en el estudio histórico poniendo de
manifiesto la lógica interna de desarrollo, de su teoría y halla el conocimiento más profundo de esta, de su
esencia. La estructura lógica del objeto implica su modelación.
MÉTODO SINTÉTICO
Es un proceso mediante el cual se relacionan hechos aparentemente aislados y se formula una teoría que
unifica los diversos elementos. Consiste en la reunión racional de varios elementos dispersos en una
nueva totalidad, este se presenta más en el planteamiento de la hipótesis. El investigador sintetiza las
superaciones en la imaginación para establecer una explicación tentativa que someterá a prueba.
MÉTODO ANALÍTICO
Se distinguen los elementos de un fenómeno y se procede a revisar ordenadamente cada uno de ellos
por separado. La física, la química y la biología utilizan este método; a partir de la experimentación y el
análisis de gran número de casos se establecen leyes universales. Consiste en la extracción de las partes
de un todo, con el objeto de estudiarlas y examinarlas por separado, para ver, por ejemplo las relaciones
entre las mismas.
Estas operaciones no existen independientes una de la otra ; el análisis de un objeto se realiza a partir de
la relación que existe entre los elementos que conforman dicho objeto como un todo; y a su vez , la
síntesis se produce sobre la base de los resultados previos del análisis.
Método de la abstracción
Es un proceso importantísimo para la comprensión del objeto, mediante ella se destaca la propiedad o
relación de las cosas y fenómenos. No se limita a destacar y aislar alguna propiedad y relación del
objeto asequible a los sentidos, sino que trata de descubrir el nexo esencial oculto e inasequible al
conocimiento empírico.
Método de la concreción
Mediante la integración en el pensamiento de las abstracciones puede el hombre elevarse de lo abstracto
a lo concreto; en dicho proceso el pensamiento reproduce el objeto en su totalidad en un plano teórico. Lo
concreto es la síntesis de muchos conceptos y por consiguiente de las partes. Las definiciones abstractas
http://www.monografias.com/trabajos11/metods/metods.shtml (5 of 9)25/05/2005 13:46:15
Metodos- Monografias.com
conducen a la reproducción de los concreto por medio del pensamiento. Lo concreto en el pensamiento
es el conocimiento más profundo y de mayor contenido esencial.
Método genético
Implica la determinación de cierto campo de acción elemental que se convierte en célula del objeto, en
dicha célula están presentes todos los componentes del objeto así como sus leyes más trascendentes.
Método de la modelación
Es justamente el método mediante el cual se crean abstracciones con vistas a explicar la realidad. El
modelo como sustituto del objeto de investigación. En el modelo se revela la unidad de los objetivo y lo
subjetivo.
La modelación es el método que opera en forma práctica o teórica con un objeto, no en forma directa,
sino utilizando cierto sistema intermedio, auxiliar, natural o artificial.
Método sistémico
Está dirigido a modelar el objeto mediante la determinación de sus componentes, así como las relaciones
entre ellos. Esas relaciones determinan por un lado la estructura del objeto y por otro su dinámica.
Método dialéctico
La característica esencial del método dialéctico es que considera los fenómenos históricos y sociales en
continuo movimiento. Dio origen al materialismo histórico, el cual explica las leyes que rigen las
estructuras económicas y sociales, sus correspondientes superestructuras y el desarrollo histórico de la
humanidad. Aplicado a la investigación, afirma que todos los fenómenos se rigen por las leyes de la
dialéctica, es decir que la realidad no es algo inmutable, sino que está sujeta a contradicciones y a una
evolución y desarrollo perpetuo. Por lo tanto propone que todos los fenómenos sean estudiados en sus
relaciones con otros y en su estado de continuo cambio, ya que nada existe como un objeto aislado.
Este método describe la historia de lo que nos rodea, de la sociedad y del pensamiento, a través de una
concepción de lucha de contrarios y no puramente contemplativa, más bien de transformación. Estas
concepciones por su carácter dinámico exponen no solamente los cambios cuantitativos, sino los
radicales o cualitativos.
Aunque no existen reglas infalibles para aplicar el método científico, Mario Bunge considera las siguientes
como algunas de las más representativas:
●
●
●
●
Formulación precisa y específica del problema
Proponer hipótesis bien definidas y fundamentadas
Someter la hipótesis a una contrastación rigurosa
No declarar verdadera una hipótesis confirmada satisfactoriamente
http://www.monografias.com/trabajos11/metods/metods.shtml (6 of 9)25/05/2005 13:46:15
Metodos- Monografias.com
●
Analizar si la respuesta puede plantearse de otra forma
MÉTODOS EMPIRICOS
Definidos de esa manera por cuanto su fundamento radica en la percepción directa del objeto de
investigación y del problema.
OBSERVACIÓN CIENTÍFICA
El investigador conoce el problema y el objeto de investigación, estudiando su curso natural, sin
alteración de las condiciones naturales, es decir que la observación tiene un aspecto contemplativo.
La observación configura la base de conocimiento de toda ciencia y, a la vez, es el procedimiento
empírico mas generalizado de conocimiento. Mario Bunge reconoce en el proceso de observación cinco
elementos:
a. El objeto de la observación
b. El sujeto u observador
c. Las circunstancias o el ambiente que rodean la observación
d. Los medios de observación
e. El cuerpo de conocimientos de que forma parte la observación
LA EXPERIMENTACIÓN CIENTÍFICA
Implica alteración controlada de las condiciones naturales, de tal forma que el investigador creara
modelos, reproducirá condiciones, abstraerá rasgos distintivos del objeto o del problema. La
experimentación depende del grado de conocimiento del investigador, a la naturaleza, a las
circunstancias del objeto y al problema de investigación, es decir no siempre se podrá realizar
experimentación. La experimentación debe seguir ciertas reglas:
a. el fenómeno de que se trate debe aislarse para estudiarlo mejor
b. El experimento debe repetirse en las mismas circunstacias para comprobar si siempre es el mismo
c. Las condiciones del experimento deben alterarse para investigar en que grado modifican al
fenómeno
d. El experimento debe durar el tiempo suficiente para que se produzca el fenómeno deseado.
http://www.monografias.com/trabajos11/metods/metods.shtml (7 of 9)25/05/2005 13:46:15
Metodos- Monografias.com
La medición
Se desarrolla con el objetivo de obtener la información numérica acerca de una propiedad o cualidad del
objeto o fenómeno, donde se comparan magnitudes medibles y conocidas. Es decir es la atribución de
valores numéricos a las propiedades de los objetos. En la medición hay que tener en cuenta el objeto y la
propiedad que se va a medir, la unidad y el instrumento de medición, el sujeto que realiza la misma y los
resultados que se pretenden alcanzar.
En las ciencias sociales, naturales y técnicas no basta con la realización de las mediciones, sino que es
necesario la aplicación de diferentes procedimientos que permitan revelar las tendencias, regularidades y
las relaciones en el fenómeno objeto de estudio, uno de estos procedimientos son los estadísticos, tanto
los descriptivos como los inferenciales.
El mejor Método de investigación es ...
Es difícil escoger un método como el ideal y único camino para realizar una investigación, pues muchos
de ellos se complementan y relacionan entre si. A mi consideración el método mas completo es el método
HIPOTÉTICO-DEDUCTIVO ya que en él se plantea una hipótesis que se puede analizar deductiva o
inductivamente y posteriormente comprobar experimentalmente, es decir que se busca que la parte
teórica no pierda su sentido, por ello la teoría se relaciona posteriormente con la realidad. Como notamos
una de las características de este método es que incluye otros métodos, el inductivo o el deductivo y el
experimental, que también es opcional. Explicare brevemente la fortalezas que yo noto en cada uno de
estos "submétodos", finalmente la reunión de todas estas fortalezas conformaran los argumentos de mi
elección sobre el método hipotético deductivo.
La deducción, tiene a su favor que sigue pasos sencillos, lógicos y obvios que permiten el descubrimiento
de algo que hemos pasado por alto.
La inducción, encontramos en ella aspectos importantes a tener en cuenta para realizar una investigación
como por ejemplo la cantidad de elementos del objeto de estudio, que tanta información podemos extraer
de estos elementos, las características comunes entre ellos, y si queremos ser mas específicos como en
el caso de la inducción científica, entonces tomaremos en cuenta las causas y caracteres necesarios que
se relacionan con el objeto de estudio.
La experimentación científica, muchos de nuestros conocimientos nos lo proporciona la experiencia y es
un método que te permite sentirte mas seguro de lo que se estas haciendo. A demás admite la
modificación de variables, lo cual nos da vía libre para la corrección de errores y el mejoramiento de
nuestra investigación. También podríamos agregar que como futuros ingenieros de sistemas aplicamos
mucho este método, puesto que debemos buscar una solución de calidad, efectiva, funcional y de
satisfacción a las necesidades del cliente, un ejemplo muy común en nuestra área seria la
implementación de un software, siempre se realizan muchas pruebas. Desafortunadamente no en todas
las investigaciones se puede aplicar este método, ya que estas dependen del grado de conocimiento del
investigador, el problema de investigación y otros ya mencionados anteriormente.
BIBLIOGRAFÍA
http://www.monografias.com/trabajos11/metods/metods.shtml (8 of 9)25/05/2005 13:46:15
Metodos- Monografias.com
López Cano José Luis, Métodos e hipótesis científicas, México, 1984
Roberto Hernández Sampieri, Carlos Fernández Collado, Pilar Baptista Lucio, Metodología de la
investigación,Mc Graw Hill, Colombia (1996)
http://www.ispjae.cu/eventos/colaeiq/Cursos/Curso12.doc.
Autor
Ana Beatriz Ochoa G.
[email protected]
Volver al inicio | Volver arriba
Términos y Condiciones - Haga Publicidad en Monografias.com - Contáctenos
© 1997 Lucas Morea / Sinexi S.A.
http://www.monografias.com/trabajos11/metods/metods.shtml (9 of 9)25/05/2005 13:46:15
Mecánica Clásica- Monografias.com
Regístrese
Compare
precios
Buscar:
Nuevos
Consulte
a los
expertos
Publicar
Toolbar
Foros
Ayuda
Recomendar
Buscar
Recomendamos:
Barra de
herramientas
gratuita
Avanzada
Agregar a Recomendar
favoritos
Imprimir
Bajar
Trabajo
(Descargar)
Mecánica Clásica
Movimiento unidimensional
1.-Un electrón con una velocidad inicial Vo=1.50*10 5 m/s entra en una región acelerada electricamente
de 1.0 cm de largo. Este emerge con una velocidad de v=5.70*10 6 m/s ¿cuál fue su aceleración
constante asumida? (Dicho proceso ocurre en un tubo de rayos catódicos, usando en receptores de
televisión y osciloscopios)
Datos
V= 1.50 X 105m/s
X= 1cm
Vf= 5.70 X 106 m/s
2.-Los frenos de tu automóvil son capaces de crear una aceleración retardatriz de 17ft/s².
a)Si tu vas a 85mi/h y de repente ves un policía de transito, ¿cuál es el tiempo mínimo en el que tu
http://www.monografias.com/trabajos12/moviunid/moviunid.shtml (1 of 16)25/05/2005 13:46:41
Mecánica Clásica- Monografias.com
puedes bajar la velocidad a 55mi/h?
Datos
Vo = 85mi/h
a= -17ft/s2
Vf= 55mi/h
3.-Un carro va viajando a 56.0km/h y esta a 24.0m de la barrera cuando el conductor presiona los frenos.
El carro golpea la barrera 2.00s más tarde.
a)¿Cuál fue la aceleración retardatriz constante de¡ carro antes del impacto?
b)¿Qué tan rápido iba viajando el carro en el momento del impacto?
Datos
V=56km/h a)
X=24m
T=2seg b)
4. Un carro moviéndose con un aceleración constante cubre la distancia de 60.Om entre 2 puntos en
6.00s. Su velocidad pasando al segundo punto es de 15.0m/s.
http://www.monografias.com/trabajos12/moviunid/moviunid.shtml (2 of 16)25/05/2005 13:46:41
Mecánica Clásica- Monografias.com
a)¿Cuál es la velocidad en el primer punto?
b)¿Cuál es la aceleración?
c)¿A qué distancia previa de[ primer punto estaba el carro en reposo?
d)Gráfique x vs. t y y ys. t para el carro desde el reposo.
Datos
D=60m a)
T=6seg b)
V1=15.0m/s c)
Vo=? Xo=
a=?

IPN-UPIICSA PRÁCTICA Nº2 Mecánica Clásica
MOVIMIENTO UNIDIMENSIONAL
5.-Para parar un carro, primero necesitas cierta reacción de tiempo para empezar a frenar, después el
carro baja la velocidad con aceleración retardatriz constante con el freno. Supón que la distancia total
movida por tu carro durante estas dos fases es de 186ft cuando su velocidad inicial es de 50 mi/h y 80 ft
cuando la velocidad inicial es de 30 mi/h. ¿cuál es: A)tu reacción de tiempo. Y B)magnitud de aceleración
retardatriz?
Datos
http://www.monografias.com/trabajos12/moviunid/moviunid.shtml (3 of 16)25/05/2005 13:46:41
Mecánica Clásica- Monografias.com
V1=50mi/h
a)
D2=80ft Tiempo de reacción
V2=30mi/h
b)

IPN-UPIICSA PRÁCTICA Nº3 Mecánica Clásica
MOVIMIENTO UNIDIMENSIONAL (SOLUCIÓN)
1 En un sitio de construcción la pala de un rascador golpea el terreno con- una rapidez de 24m/s.
a)¿De que altura fue lanzada ésta, inadvertidamente?
b)¿Cuánto duro la caída?
c)Haz una gráfica de y, v & a vs. t.
Datos
http://www.monografias.com/trabajos12/moviunid/moviunid.shtml (4 of 16)25/05/2005 13:46:41
Mecánica Clásica- Monografias.com
VR= 24m/s a)
h=? b)
Vo=0
G= -9.81m/s2
2 a)¿A que velocidad debe ser lanzada una bola verticalmente desde el nivel de¡ piso para elevarse a una
altura máxima de 50m?
b)¿Cuánto tiempo estará en el aire?
En las dos primeras gráficas indica el tiempo en que son alcanzados los 50m.
Datos
h=50m
Vo=0 a)
G=-9.81m/s2 b)
T=?
VR=?
3.- Una roca es lanzada desde un risco de 100m de alto ¿cuánto tiempo tarda en caer a los a) primeros
50m y b) los segundos 50m?
Datos
http://www.monografias.com/trabajos12/moviunid/moviunid.shtml (5 of 16)25/05/2005 13:46:41
Mecánica Clásica- Monografias.com
Vo=0
T1=?
T2=?
G=-9.81m/s2
VR=?
4 Un armadillo salta hacia arriba (fig.) alcanzando 0.544m en 0.2005.
a)¿Cuál es su velocidad inicial?
b)¿Cuál es su velocidad a esta altura?
c) ¿Qué altura puede alcanzar?
Datos
H=0.544m a)
T=.2005 b)
Vo= ? c)
http://www.monografias.com/trabajos12/moviunid/moviunid.shtml (6 of 16)25/05/2005 13:46:41
Mecánica Clásica- Monografias.com
V=?
G=9.81m/s2
5.- Una bola de arcilla cae en el piso de una altura de1.50m. Esta en contacto con el piso por 20.0ms
antes de llegar al reposo.
¿Cuál es la aceleración promedio de la bola durante el tiempo que esta en contacto con el piso (considere
la bola como una partícula)?
Datos
H=1.50m
T=20m/s=0.2seg
Vf=0
A=?
6.-Para probar la calidad de una pelota de Tenis, la tiras hacia el piso a una altura de 4.00m. Está rebota
a una altura de 3.00m.
Si la bola estuvo en contacto con el piso por 10.0ms, ¿cuál es la aceleración promedio durante el
contacto?
Datos
Vo=0
H=4m
HR=3m
T=10m
http://www.monografias.com/trabajos12/moviunid/moviunid.shtml (7 of 16)25/05/2005 13:46:41
Mecánica Clásica- Monografias.com
Ap=?

IPN-UPIICSA PRÁCTICA Nº4 Mecánica Clásica
MOVIMIENTO UNIDIMENSIONAL (SOLUCIÓN)
1.-Una regadera gotea en el baño hacia el piso a 200cm abajo. Las gotas caen en un intervalo regular de
tiempo. La primer gota golpea en el piso en el instante en que la cuarta gota empieza a caer. Encuentra
las localizaciones de la segunda y tercera gota cuando la primera golpea el piso.
2.-Dos objetos empiezan una caída libre desde el reposo desde la misma altura a un 1.0s de diferencia.
¿Cuánto tiempo después de que el primero empieza a caer, los dos objetos estarán l0m aparte?
Datos
Vo=0
Td=1seg de diferencia
T=?
http://www.monografias.com/trabajos12/moviunid/moviunid.shtml (8 of 16)25/05/2005 13:46:41
Mecánica Clásica- Monografias.com
D=10m estaran a parte
3-.Un globo de aire caliente esta ascendiendo a una velocidad de 12m/s -y está 80m arriba del suelo,
cuando un paquete es tirado por un lado. a)¿Cuánto tiempo le tomará al paquete llegar al suelo? b)¿Con
qué velocidad golpea el piso?
Datos
G=9.81m/seg2
Vo=12m/s
H=80m
4 Un elevador sin techo esta ascendiendo con una velocidad constante de l0m/s. Un niño en el elevador
tira una bola directamente hacia arriba, a una altura de 2.0m arriba del piso del elevador, lo mismo que el
elevador 28m por encima del suelo. La velocidad inicial de la bola con respecto al elevador es de 20m/s.
a)¿Cuál es la máxima altura que alcanza la pelota?
b)¿Cuánto tiempo le toma a la bola regresar al piso del elevador?
5 Una bola de acero se lanza desde el techo de un edificio y pasa por una ventana, tomándole 0.125s la
caída desde el inicio de la ventana hasta el final de ésta, una distancia de 1.20m. La bola golpea la
banqueta y rebota ""perfectamente" de regreso pasando la ventana, el movimiento desde el fondo hasta
la parte superior lo realiza en 0.125s. El tiempo que transcurre bajo el fondo de la ventana es de 2.00s
¿Qué tan alto es el edificio?

IPN-UPIICSA PRÁCTICA Nº5 Mecánica Clásica
MOVIMIENTO UNIDIMENSIONAL (SOLUCIÓN)
http://www.monografias.com/trabajos12/moviunid/moviunid.shtml (9 of 16)25/05/2005 13:46:41
Mecánica Clásica- Monografias.com
1.- Si una pulga salta una altura de 0.640m.
a)¿Cuál es su rapidez inicial en el instante que abandona el terreno? b)¿Qué tiempo permanece en el
aire?
2-- Una piedra es lanzada hacia arriba verticalmente con una rapidez de 8m/s de la azotea de un edificio
de 12m de altura. Para el movimiento de la roca entre la azotea de edificio y el terreno, a) ¿cuál es la
magnitud y dirección: b) La velocidad promedio de la roca? c) La aceleración de la roca?
Datos
y-yo=12m
g=9.81m/s2
t=2.4s
http://www.monografias.com/trabajos12/moviunid/moviunid.shtml (10 of 16)25/05/2005 13:46:41
Mecánica Clásica- Monografias.com
V=?
Vp=? a)
A=? b)
3.-Un huevo es lanzado verticalmente hacia arriba de la cornisa de un edificio muy alto. Cuando el huevo
regresa al nivel de la cornisa, 7s más tarde, éste a recorrido 50m hacia debajo de la cornisa. a) ¿Cuál es
la rapidez inicial del huevo?
b) ¿Cuál es la altura que alcanza el huevo a partir de su punto de lanzamiento?
c) ¿Cuál es la magnitud de su velocidad en el punto más alto?
d) ¿Cuál es la magnitud y dirección de su aceleración en el punto más alto?
Datos
Vf=0 a)
T=7s
y-yo=50m b)
g=9.81m/s2
http://www.monografias.com/trabajos12/moviunid/moviunid.shtml (11 of 16)25/05/2005 13:46:41
Mecánica Clásica- Monografias.com
Vo=? c)
H=? d)
I=?
4.- El trineo que impulsa al cohete 'Sonic Wind # 2, el cuál se usa para investigar los efectos psicológicos
en grandes aceleraciones,"' se desplaza en línea recta sobre una vía de 1070m. de largo. Partiendo del
reposo, éste alcanza una rapidez de 447m/s en 18s.
a. Calcular la aceleración en m/s² suponiendo que ésta es constante.
b. ¿Cuál es la razón de ésta aceleración, a la que experimenta un cuerpo en caída libre?
c. ¿cuál es la distancia que recorre en, 1.80s?
¿son consistentes estas apreciaciones?
Datos
x-xo=1070m a)
Vf=447m/s b) El cuerpo en caida libre experimenta la aceleracion de la gravedad y por lo tanto
es diferente al que experimenta un curpo en movimiento horizontal.
Vi=0 c)
T=18s
Vo=?
H=?
http://www.monografias.com/trabajos12/moviunid/moviunid.shtml (12 of 16)25/05/2005 13:46:41
Mecánica Clásica- Monografias.com
I=?
5.- La aceleración de una motocicleta está dada por a(t) = At-Bt² donde A= 1.90m/s² y B=0.120m/s², la
motocicleta parte del reposo en t=0
a).- Determine su posición y velocidad como función del tiempo.
b).- Calcule la velocidad máxima que alcanza la moto.

IPN-UPIICSA PRÁCTICA Nº5 Mecánica Clásica
MOVIMIENTO UNIDIMENSIONAL (SOLUCIÓN)
1-Un transbordador espacial hacia la Base Lunar 1, viaja una distancia de 400,000km con una trayectoria
recta de la tierra a la luna. Supóngase que éste acelera a 15 m/s² para los primeros 10.Omi de¡ viaje,
después viaja con rapidez constante hasta antes de los últimos 10.0mi, 'cuando éste acelera a -15mls2,
justo cuando llega al reposo en la luna.
a)¿ Cuál es la máxima rapidez alcanzada?
b) ¿ Qué fracción de la distancia total es recorrida con rapidez constante? c) ¿Cuál es el tiempo total qué
se requiere para el viaje?
2- Una partícula tenla una velocidad de 18.0m/s en dirección de las X. positiva, 2.4s más tarde su
velocidad es de 30m/s en dirección opuesta: ¿ Cuál fue la magnitud de la. aceleración promedio de la
partícula durante éste intervalo de 2.4s?
Datos
Vi=18.0m/s
http://www.monografias.com/trabajos12/moviunid/moviunid.shtml (13 of 16)25/05/2005 13:46:41
Mecánica Clásica- Monografias.com
T=2.4s
Vf=30m/s
3.- Una banda eléctrica de 80m de largo, la cual se encuentra en un edificio del aeropuerto, se mueve a
1.0m/s. Si una mujer inicia su caminar en un extremo de la banda con una rapidez de 2.9m/s relativa a la
banda móvil, ¿Cuánto tiempo requiere la mujer para alcanzar el extremo opuesto, si ella camina:
a) en la misma dirección en que se mueve la banda?
b) en la dirección opuesta?
4 -Un objeto que se desplaza con aceleración constante tiene una velocidad de 12m/s cuando su x
coordenada es de 3m, sí 2s más tarde su x coordenada es de -5m, ¿ cuál será la magnitud de su
aceleración?
5.- Un objeto se mueve a lo largo del eje-X. Su posición, en metros, como una función del tiempo, en
segundos, es x(t) = at-bt³ donde a = 3 y b = 2
a) ¿Cuáles deben ser las unidades para las constantes a,y b?
b) Determine la velocidad promedio de éste objeto en un intervalo de tiempo (ls,3s)
c) Calcule la velocidad instantánea en t = 2s
d) Determine la aceleración del objeto como una función del tiempo.

IPN-UPIICSA PRÁCTICA Nº7 Mecánica Clásica
MOVIMIENTO UNIDIMENSIONAL (SOLUCIÓN)
1.-Un jet plano de alto desempeño que realiza ensayos para evitar el radar, está en vuelo horizontal a
35m sobre el nivel del terreno. Súbitamente el jet encuentra que el terreno sube cuesta arriba en 4.3° una
cantidad difícil de detectar. ¿Cuánto tiempo tiene el piloto para hacer una corrección si ha de evitar que el
jet toque el terreno? La rapidez del jet es de 1300 km/h.
Datos
H=35m
http://www.monografias.com/trabajos12/moviunid/moviunid.shtml (14 of 16)25/05/2005 13:46:41
Mecánica Clásica- Monografias.com
V=1300km/h
T=?
2 La posición de una partícula que se mueve a lo largo del eje x está dada en centimetros por x=9.75
+1.50t³ donde t está en segundos. Considere el intervalo de tiempo de t=2.00s a 3.00s y determine :
a) La velocidad promedio
b) La velocidad instantánea en 2.0s
c) La velocidad instantánea en 3.0s.
d) La velocidad instantánea en 2.5s.
e)La velocidad instantánea cuando la partícula está a medio camino entre sus posiciones de t = 2.0s. a t=
3.0s
3 Para cada una de, las situaciones siguientes, trace una gráfica que sea una descripción posible de la
posición en función del tiempo de una partícula que se mueve a lo largo de¡ eje x. En t=1s, la partícula
tiene:
a) Velocidad cero y aceleración positiva.
b) Velocidad cero y aceleración negativa.
c) Velocidad negativa y aceleración positiva.
d) Velocidad negativa y aceleración negativa.
e) ¿ En cuál de estas situaciones aumentará la velocidad de esta partícula en t= ls?
4. Una roca es arrojada desde un acantilado de 100m de altura, ¿Cuánto tiempo tarda en caer:
a) en los primeros 50.Om
b) en los siguientes 50.Om
http://www.monografias.com/trabajos12/moviunid/moviunid.shtml (15 of 16)25/05/2005 13:46:41
Mecánica Clásica- Monografias.com
Iván Escalona
[email protected]
Volver al inicio | Volver arriba
Términos y Condiciones - Haga Publicidad en Monografias.com - Contáctenos
© 1997 Lucas Morea / Sinexi S.A.
http://www.monografias.com/trabajos12/moviunid/moviunid.shtml (16 of 16)25/05/2005 13:46:41
Espistemología - Monografias.com
Regístrese
Compare
precios
Buscar:
Nuevos
Consulte
a los
expertos
Publicar
Toolbar
Foros
Ayuda
Recomendar
Buscar
Recomendamos:
Barra de
herramientas
gratuita
Avanzada
Agregar a Recomendar
favoritos
Imprimir
Bajar
Trabajo
(Descargar)
Epistemología
Algunas implicaciones de carácter espistemológicas y metodologícas de los paradigmas empiricoanalítico y fenomenológicos en el contexto investigativo venezolano
A manera de prólogo....
Mediante el presente estudio intentamos presentar un análisis crítico de ciertas consideraciones
en torno a la forma como ha venido desarrollando el proceso investigativo en algunos de los
centros de postgrado con los cuales he tomado contacto, bien sea como estudiante, docente o
asistente en los procesos de investigación. El trabajo recoge algunas experiencias empíricas en
torno a la situación en estudio además de revisar algunos materiales que de que le dan un marco
conceptual al mismo. Es evidente que al leer los materiales necesitamos reflexionar en torno a la
forma como se ha adoptado la investigación, su carácter intensamente pragmático, inserto en la
mayoría de los casos en el empirismo, realizando una serie de consideraciones sujetas al
fatualismo atomicismo (Tellez, 1996) es decir el uso de dimensiones controlables y medibles que
imposibilitan llegar a soluciones conceptuales acordes con los problemas teóricos y
metodológicos planteados, el uso y abuso de los esquemas descriptivos en la investigación,
desdeñando de alguna forma el proceso de generación o reelaboración de teorías como un
aspecto fundamental en la generación del conocimiento
Tal y como se ha planteado en un reiteradas ocasiones la educación de postgrado emerge en el marco
de procesos globales acelerados necesarios en la producción de conocimiento derivado de una
http://www.monografias.com/trabajos4/epistemologia/epistemologia.shtml (1 of 14)25/05/2005 13:46:57
Espistemología - Monografias.com
complejidad cada vez mayor en las transformaciones tecnológicas, industriales y sociales que impactan
de una forma cada vez mayor en las políticas educativas. En nuestro país ha tenido, por estas razones,
que vincularse a estos cambios como parte de un proceso de adaptación a los grandes esfuerzos que en
esta materia han tenido lugar en el contexto internacional. En Venezuela a partir de la década de los 70
cuando el movimiento educativo entra en una expansión intempestiva de la Educación Superior y por
ende de la educación de postgrado, teniendo que entrar en sintonía con entes de carácter nacional e
internacionales a los fines de actualizar una serie de prácticas destinadas modernizar un servicio
educativo en esta materia eminentemente tradicionalista y escolástico enmarcada en consideraciones
empirista.
El proceso de investigación aparece ligado al marco de la hegemonía de tradiciones e ideologías de
carácter liberal para las cuales la educación es un instrumento de democratización social, donde esta
última depende de las posiciones sociales que permite el acceso a las carreras profesionales Al respecto
nos dice Casanova (1986) "Es por ello que una perspectiva analítica puede ser la especificación de estas
tendencias en términos de las influencias que ciertos actores ejercen sobre la dinámica de las demandas
y la selección de objetivos y opciones programáticas (p54)". Es por esta razón, acota el autor
consultado, que la tendencia empírico-analítica cobra una influencia cada vez mayor en el contexto
investigacional aportado de los estudios de postgrado a los fines de formular líneas y temas en lo referido
a la significación sociológica de ciertos elementos ya inmersos en la política de estado en relación con: la
situación de los procesos educacionales en cuanto a prácticas docentes, innovaciones, la posibilidad de
generar modos creativos científicos-tecnológicos y culltutales socialmente relevantes, si se toma en
cuenta la capacidad real para incentivar procesos de producción de investigación.
El movimiento de los estudios de postgrado en ciencias sociales en el contexto educacional venezolano,
ha evolucionado en el marco de un conjunto de premisas tales como la democratización del saber y la
selección de talentos; la educación de postgrado dentro de las universidades en centros de investigación
y de docencia. La descentralización política y financiera de gestión. La enseñanza separada de la gestión
de pregrado; investigación con pertinencia local, la investigación universalista , el cientifisismo
desarrollista, entre otros (Ruiz et.al., 1990) Esta situación afianza de una manera más fehaciente la
presencia de una perspectiva de carácter empírico analista cuyo análisis profundizaremos en los
próximos párrafos de este trabajo.
Consideraciones teórico-conceptuales de las Ciencias Empírico-analíticas
Habermas (1971), en su análisis acerca de los intereses constitutivos considera que el
conocimiento se origina y en los intereses humanos y en los medios de organización social. Describe
asimismo, los intereses humanos en términos del control técnico y la emancipación relacionada con los
http://www.monografias.com/trabajos4/epistemologia/epistemologia.shtml (2 of 14)25/05/2005 13:46:57
Espistemología - Monografias.com
medios sociales de trabajo. La asociación respectiva de los intereses humanos y los medios sociales
origina un tipo específico de conocimiento y un medio específico de conocer, o metodología científica.
El autor se manifiesta desde una posición en que el conocimiento tiene raíces históricas y
sociales, y está sujeto a los intereses. Para explicar la relación entre el conocimiento y actividad humana,
desarrolló la teoría de los intereses constitutivos de conocimiento. Debido a que el conocimiento tiene su
génesis en las estructuras sociales pasadas y existentes, sólo puede comprenderse en relación con los
problemas que la humanidad ha encontrado y sigue encontrando en la superviviencia.
En este orden de ideas plantea Habermas que los intereses constitutivos del conocimiento pueden
definirse exclusivamente en función de los problemas de la preservación de la vida, constituidos
objetivamente y que han sido resueltos por la forma de existencia cultural como tal. Asimismo contempla
los intereses constitutivos de conocimiento como los medios a través de los cuales organizamos la
experiencia diaria, en efecto, “nuestros” intereses organizan “nuestra” percepción y conocimiento de la
realidad en forma estructurada. Cada uno de nuestros intereses cognoscitivos discretos sobre el control
de la naturaleza, la armonía social y el crecimiento del individuo responde a un problema diferente en la
experiencia humana.
En la conceptualización de Habermas se establece que los distintos intereses humanos exigen
formas de conocimiento diferentes que requieren de metodologías científicas distintas (procesos del
saber) basados en formas de racionalidad diferente pero internamente coherentes. Para Habermas la
racionalidad tiene menos que ver con la posesión de conocimiento, que con la forma en que los sujetos
que hablan y actúan adquieren y utilizan el conocimiento. Cada método científico es un proceso racional y
válido para conocer dentro de su dominio el conocimiento. La idea esencial es la inconveniencia de
someter todas las formas de saber humano a una sola forma de metodología o racionalidad. En particular
Habermas critica la aplicación de la orientación tecnológica de las ciencias naturales (positivismo); o la
aplicación de la orientación subjetiva hermenéutica (fenomenología) como criterios exclusivos para
determinar la validez de todas las formas de conocimiento. Situación esta que ha ocupado gran parte del
panorama investigartivo de nuestras universidades.
Por su parte Carr y Kemmis (1986), consideran la interpretación que hace Habermas de los intereses, el
conocimiento y la ciencia, como un intento de identificar la importancia y los límites de las explicaciones
empíricas y causal hermenéutico-interpretativa.sobre la base de la descripción que hace Habermas de la
ciencia social crítica dirigida a trascender los límites del saber inherentes a las ciencias naturales e
interpretativas. Estos autores proyectan una ciencia de la educación crítica.
http://www.monografias.com/trabajos4/epistemologia/epistemologia.shtml (3 of 14)25/05/2005 13:46:57
Espistemología - Monografias.com
Es así como Habermas a su vez, plantea una alternativa intersante en el contexto de los Intereses
constitutivos como lo son los intereses técnicos de la gente, que se reflejan en la necesidad de controlar
y de manipular el ambiente externo para satisfacer sus necesidades de abrigo, alimento, etc. Estos
intereses, expresados a través del medio de trabajo se concentran en la producción material necesaria
para nuestra existencia. La racionalidad que integra los intereses técnicos, el trabajo y la ciencia empíricoanalítica es una racionalidad instrumental referida a la manipulación y el control del ambiente;la
predicción de eventos físicos y sociales observables; la realidad basada en el conocimiento empírico y
gobernada por reglas técnicas; y los criterios de control efectivo de la realidad
Desde esta perspectiva, las acciones racionales son intervenciones orientadas en función de los
objetivos y controladas por retroalimentación en un mundo supuestamente objetivo. Habermas hace la
crítica de que la racionalidad instrumental inherente a este tipo de interés constitutivo de conocimiento,
ha llegado a ser una ideología extendida. Es ideología cuando se aplica la realidad instrumental sin
comprobación válida como criterio para todas las formas y dominios del conocimiento. El resultado final
es la reducción de los asuntos morales y estéticos, educativos y políticos a problemas técnicos: el por qué
y el qué se reducen al cómo.
Las ciencias empírico-analíticas o naturales, son las metodologías científicas que producen, en
una forma técnica, el conocimiento útil. El énfasis en la predicción y el control de los procesos objetivos
se relacionan directamente con los intereses técnicos. La base filosófica de esta forma de conocimiento
es el positivismo. En esta corriente se afirma que sólo puede establecerse el conocimiento válido en
referencia a la realidad externa, experimentada por los sentidos. Este enfoque se basa en la presunción
ontológica del mundo objetivo, como la suma total de lo que es, el caso, y clarifica las condiciones de la
conducta racional en esta base. Las ciencias empírico-analíticas se basan en ideales de explicación,
predicción y control. En este enfoque la acción individual no es resultado de una conciencia reflexiva
subjetiva., en vez de ello, la acción individual siempre se observa como algo gobernado por las leyes
funcionales invariables que operan fuera del control personal de los actores individuales (Carr, y Kemmis
1986).
El paradigma empírico-analítico en las investigaciones de posgrado
El propósito del saber empírico análitico es descubrir regularidades similares a leyes para
aplicarlas a la praxis educativa y mejorar la eficiencia. Describe el centro de esta perspectiva de la
siguiente manera: Sobre la parte no subjetiva (observable) el objeto de la metodología de la conducta
http://www.monografias.com/trabajos4/epistemologia/epistemologia.shtml (4 of 14)25/05/2005 13:46:57
Espistemología - Monografias.com
humana, el objetivo de la metodología de la ciencia de la conducta es descubrir las causas y efectos
empíricos que gobiernan y explican la conducta, y la organizan en enunciados de hechos similares a
leyes sujetos a verificación por observaciones objetivas. Estos son hechos que han servido de marco a la
generación de un conocimiento muchas veces no sustentado desde una perspectiva crítica y teóricaCoincidiendio en este planteamiento con el de Tellez (1996) para quien el reconocimiento del papel de la
teoría en la investigación se ha generalizado de un modo tal que continua vigente la ausencia de toda
preocupación por los supuestos epistemológicos fundantes de la teoría y de las modalidades de
efectuación de las prácticas investigativas; ausencia que suele adoptar la forma de rechazo a lo que se
consideraron “discusiones estériles” y/o la del entendimiento del papel de la teoría en la investigación
como mera aplicación de teorías dadas. En cualquier caso, las consecuencias son las mismas: la
aceptación acrítica de teorías y, como correlato, la imposibilidad de que la investigación se oriente a la
modificación de los conocimientos existentes y, menos, a la emergencia de nuevas construcciones
teóricas, lo cual comporta, simultáneamente, la idea y práctica de asumir las teorías como no analizables,
como sistemas no susceptibles de ser interrogados y cuestionados con relación a sus criterios y
pretensiones de verdad.
Otras de las razones que analiza la autora atañe al reconocimiento del carácter insoslayable de la
reflexión epistemológica en el proceso mismo de las prácticas investigativas pues, si toda práctica
investigativa comporta la adopción de determinados enfoques teóricos, tal adopción presupone reconózcase o no la de los criterios epistemológicos que fundan y definen la naturaleza y alcance de
dichos enfoques en tantos modos de entendimiento teórico de los social. El desconocimiento del estatuto
epistemológico que rige todo discurso teórico no deja de tener efectos en el proceso y resultados de la
investigación, efectos traducidos en las inconsistencias teórico - metodológicas que recorren desde el
planteamiento del campo problemático objeto de investigación hasta la sistematización expositiva de los
resultados. El relativo control de estos efectos reclama del investigador una definición respecto de
problemas claves que son de índole epistemológica, entre ellos: (a) La concepción de lo real social y sus
implicaciones en la investigación de particulares procesos sociales. Concepción que comporta la relativa
a las relaciones de interdependencia entre los distintos niveles de estructuración de tales procesos, y, así,
la exigencia de categorías de análisis que posibiliten la construcción teórica como puesta en evidencia de
la red de determinaciones de los fenómenos construidos como objetos de conocimiento; (b) Los vínculos
entre teoría e investigación de lo social, las orientaciones ideológicas y la direccionalidad de las prácticas
sociales en las que busca intervenir; (c) La concepción del proceso de conocimiento de lo social, en la
que se sitúan cuestiones tales como: los modos de proceder a la delimitación o "recorte" de los
problemas - objetos de investigación y su dependencia respecto de los modos de concebir la constitución
de los procesos específicos en el seno de la totalidad social de los que forman parte; las formas de
concebir y efectuar procedimientos de análisis y síntesis; la relación teoría - métodos y, en su contexto, el
alcance de las teorías que suelen ser aceptadas o rechazadas en la efectuación de las prácticas
investigativas.
Desde la perspectiva instrumental, la enseñanza se convierte en un manejo de fines y medios
estandarizados; el aprendizaje se convierte en el consumo de paquetes preparados de porciones de
información y partes de habilidades. El éxito se manifiesta cuando los docentes y los estudiantes se
http://www.monografias.com/trabajos4/epistemologia/epistemologia.shtml (5 of 14)25/05/2005 13:46:57
Espistemología - Monografias.com
desempeñan como se les ha dirigido. Con el éxito del estudiante como objetivo el enfoque instrumental se
concentra en herramientas, recursos, ambientes, técnicas. Los docentes y los estudiantes como medios
para aquél fin determinado. Los sistemas educativos se contemplan como un sistema de entrada y
salida., donde ingresan recursos y materia prima por un extremo, y por el otro sale un producto
terminado, un estudiante “educado” exitoso. Dentro de este sistema de entrada, los problemas
educacionales se consideran bloqueos causados por conductas inadecuadas del docente, las
insuficiencias del estudiante, o bien, el deficit de recursos.
En cuanto a la crítica del uso de la racionalidad instrumental, Habermas (1971-1984) se basa en
dos líneas de argumentación. La primera critica del uso de la racionalidad instrumental, a pesar de sus
limitaciones, como criterio para todas las formas de conocimiento. La racionalidad instrumental rechaza
categóricamente que los valores pueden determinarse racionalmente, aunque ella misma se basa en la
presuposición de valores de efectividad y eficiencia. El segundo argumento se concentra en la
universalidad real de las relaciones similares a leyes reportadas. Habermas hace la distinción entre
relaciones de causa efecto invariables que siempre serán verdaderas en todas las situaciones, y las
relaciones causa efecto que existen debido a los factores y condiciones sociales que pueden cambiar
Es así como en este paradigma la acción social consiste en: la realización de enunciados que se
justifican desde el punto de vista objetivo, la actuación eficiente y el aprendizaje de los errores pasados.
El razonamiento instrumental, que niega que los valores puedan analizarse racionalmente dentro de su
marco racional., no puede indentificar qué valores deben o no, perseguirse. Fisher (1980), argumenta
que el mejor curso de acción no es el curso más eficiente y efectivo para alcanzar los fines deseados. El
mejor curso de acción es el que está respaldado por las mejores razones. Esto es particularmente cierto
en la educación. Las decisiones en educación son simplemento instrumentales; se realizan en medio de
antecedentes de intereses políticos, profesionales y públicos, donde podría no permitirse el curso de la
acción más eficiente
Otro aspecto necesario considerar en el contexto del uso de la perpestiva empírico-analítica en las
investigaciones acometidas por nuestras universidades lo constituye el hecho que Tellez (1996) considera
como el fatualismo y atomicismo de acuerdo con las reglas del cientificísmo, que en esta corriente se
estructuran de una particular manera: la de delimitar/configurar los campos de investigación como
entidades observables, susceptibles de ser traducidas en dimensiones controlables y medibles. De esta
manera, el ajuste de prácticas investigativas a tales reglas impide que aquellas rebasen la capacidad de
controlar y medir de acuerdo a los procedimientos e instrumentos metodológicos que están al alcance del
investigador. Los criterios de cientificidad y su expresión en la exigencia de manipulabilidad de los
"objetos" dan lugar a la necesidad de adecuarlos a los requerimientos del método, más estrictamente, a
los requerimientos tecno-metodológicos con los que aquel suele identificarse.
http://www.monografias.com/trabajos4/epistemologia/epistemologia.shtml (6 of 14)25/05/2005 13:46:57
Espistemología - Monografias.com
Sobre la base de lo planteado cabe subrayar que, en y desde la epistemología empírico - analítica, lo que
se enuncia como objeto de investigación, supuestamente "extraído de la realidad", es ya, de por si, un
método delimitado, "recortado", configurado a la medida de los requerimientos de cientificidad aceptados
sin discusión. Los objetos enunciados incorporan su entendimiento tal y como tienen que ser: objetos con
arreglo a dichos requerimientos y a los procedimientos técnico - metodológicos correspondientes. Los
objetos de investigación son susceptibles de ser tratados científicamente sí y sólo sí admiten su
adecuación a los cánones empírico-naturalistas de cientificidad: la observación controlada, el cotejo
controlado de hipótesis a los efectos de su verificación empírica; cánones que aparecen y se asumen
como supuestos sin discusión, pero que fundan la configuración de los objetos en tanto objetos que
permiten un "tratamiento científico"; es decir, que sean controlables, medibles.Es así como delimitados y/
o configurados, los objetos de investigación disuelven todo vínculo con su construcción teórica y
metódica, pues tal delimitación y configuración suelen darse como operaciones que nada tienen que ver
con dicha construcción, lo cual tiene dos consecuencias fundamentales: (a) convertir estas operaciones
en aplicación experimental de hipótesis o teorías aceptadas como científicas, sin discusión; (b) soslayar
todo campo problemático de investigación que no responda a la condición de ser "científicamente
tratable", en los términos que ya hemos referido.
Es con relación al modo metodologista de delimitar/configurar los problemas de investigación donde cabe
situar el carácter factualista/objetivista y atomista de las tendencias teóricas e investigativas en las que
se despliega el paradigma empírico - analítico que las funda. El carácter factualista/ objetivista se
estructura como efectuación del supuesto según el cual "la" ciencia se ocupa de particulares dados en
tanto que observables; dados, bien en el momento de las observaciones fácticas o experimentales, bien
en el momento del control/verificación de hipótesis y teorías. En este supuesto arraiga el entendimiento
del discurso científico-social como discurso que, referido a lo que es en cuanto observables, ha sido
empíricamente contrastado y comprobado, o es empíricamente contrastable y comprobable. Y, con ello,
la consideración de dicho discurso como opuesto al discurso valorativo; oposición en la que se sitúa la
exigencia de excluir todo valor y todo juicio de valor.
Al factualismo/objetivismo responde, también, el predominio de procedimientos analíticos, consustancial
al propósito que le es asignado a la investigación social: el logro de conocimientos relativos a conexiones
causales de orden funcional. Tal privilegio comporta la anulación de la síntesis como reconstrucción
teórica de la complejidad constitutiva de los fenómenos sociales y, con ello, la restricción de la actividad
investigativa al estudio de "variables" y al establecimiento de relaciones de causalidad funcional entre
ellas; variables que se definen sin vínculo alguno con categorías de análisis y que ocupan el lugar de
estas en el estudio de lo real social. De tal manera, el análisis deviene atomismo, propio de una
concepción para la cual los objetos de investigación no son sólo objetos dados sino, más estrictamente,
dados atomísticamente, objetos en sí, total y absolutamente descontextualizados respecto de las redes
de relaciones sociales y a la generación de un conocimiento globalizante de la situación problemática
planteada
http://www.monografias.com/trabajos4/epistemologia/epistemologia.shtml (7 of 14)25/05/2005 13:46:57
Espistemología - Monografias.com
En los límites de tal concepción, finaliza la autora, está presente en enfoques teóricos y en prácticas
investigativas, los hechos observables como "hechos en si" constituyen la realidad básica y última de lo
existente y de su conocimiento; de allí que sean estos límites los que, de manera simultánea, determinen
el no lugar para las categorías de análisis indisociables de la construcción teórica dirigida a la
evidenciación de la red de determinaciones sociales que estructuran ámbitos particulares de lo real social.
El papel dominante de la teoría en el proceso de investigación
Para Castell (1981), la perspectiva empirista tradicional dentro de la cual la teoría resulta de una
interpretación a partir del análisis de datos coleccionados sin un bagaje intelectual, está fundada en la
afirmación de la neutralidad de los datos, sobre su existencia objetiva y no pidiendo más que un proceso
de puesta en relación a fin de organizar la materia prima de esta realidad social directamente captada.
Es normal que siendo la "teoría" el resultado de una secuencia técnica que va de los datos al análisis
lógico o estadístico, pueda estar fuera del proceso mismo y que la diversidad del cuadro teórico no
implique variaciones sustanciales de los procedimientos de investigación. Ahora bien, es esta neutralidad
teórica de los datos la que es enteramente puesta en juicio a medida que se profundiza en la
investigación metodológica.
Un primer nivel de critica, analiza el autor, podría ser que la recopilación de datos descansa
siempre sobre la previa clasificación de estos datos, ya sea conforme a las categorías ad hoc según los
propósitos de la investigación, o bien a los términos de la práctica administrativa, o más generalmente del
lenguaje corriente. Sin una reelaboración teórica se hace imposible controlar los efectos de los datos
codificados a partir de los resultados de la investigación Surge el planteamiento del emprirismo lógico
que no hay en la ciencia demostración de la verdad de una proposición, sino de su no falsedad, de la no
contradicción entre proposición teórica y experiencia actual realizada.
Si esto es así, está claro que la inferencia causal en sociología no puede partir de hechos sino ir
hacia ellos, poniendo a prueba una cierta hipótesis y en consecuencia un contenido teórico determinado,
siguiendo la lógica de los test estadísticos. El argumento decisivo es, sin embargo el que toca la lógica
misma del análisis causal. Toda relación a establecer en un sistema de variables se apoya sobre la
hipótesis, es decir, la distribución al azar de los efectos de las variables no estudiadas en las variables
tomadas en consideración y sus relaciones. Esta autonomía de un sistema de relaciones empíricamente
establecido es arbitraria, a menos que esta delimitación esté teóricamente justificada, es decir, que la
elección de las variables internas al sistema observado y las hipótesis relativas a las variables externas al
sistema implican necesariamente una teoría sustantiva que da un sentido a las operaciones efectuadas.
http://www.monografias.com/trabajos4/epistemologia/epistemologia.shtml (8 of 14)25/05/2005 13:46:57
Espistemología - Monografias.com
En este orden de ideas Tellez (1996) acota que no es que se pretende afirmar que éstos sean los únicos
problemas susceptibles de ser considerados; sin embargo, dentro del campo de los posibles problemas
no deben ser eludidos en tantas cuestiones epistemológicas actuantes en las tenencias teóricas e
investigativas en torno a lo social. Acotar los términos en que dichos problemas son planteados en y
desde las opciones epistemológicas en debate, permite advertir el alcance de las divergencias o
convergencias entre dichas tendencias. Al respecto es necesario considerar: (a) el estado actual de la
teoría e investigación social, caracterizado por una profunda crisis de fundamentación tiene, entre sus
fuentes primordiales, la adopción acrítica y la presencia hegemónica de la epistemología empírico analítica, una opción que en su despliegue efectivo como epistemología fundantes de teorías y prácticas
investigativas no sólo fijo prescripciones relativas al "auténtico conocimiento científico" sino también, en
ellas y con ellas, determinadas proscripciones. En efecto, teorías e investigaciones realizadas bajo la
íntima convicción de que la ciencia consiste en la adquisición y ampliación de conocimientos
autofundados, autoconfirmados, se prohiben interrogar sus criterios de fundamentación - los que fundan
su estatuto epistemológico -, su inscripción histórico social, sus implicaciones ético - políticas; se
prohiben, para decirlo con las palabras de Edgar Morin, "pensar los pensamientos", "teorizar las teorías",
"concebir los conceptos"1 . Por ello, sigue siendo necesaria la tarea dirigida a evidenciar los límites que
tal posición epistemológica ha impuesto al conocimiento de los social, a esta tarea intenta contribuir
nuestra reflexión.
El enfoque fenomenológico como un paradigma en el contexto investigativo
Un aspecto a considerar en esta discusión relativa a la investigación, es el surgimiento de algunas
"nuevas" problemáticas es la aparición en nuestro contexto educacional de la fenomenología lo que se
observa cuando se analizan distintos autores surge la necesidad de emprender nuevos derroteros
epistemológicos, es decir, existen algunos elementos que necesitan ser revisados, a pesar que para
algunos autores la fenomenología es un pensamiento de comienzos de siglo, incluso muchos de sus
elementos pueden estar dentro de la filosofía de los griegos. La emergencia de la fenomenología es de
data reciente, la decada de los '60 y esta emergencia de un pensamiento fenomenológico ha sido
contextualizada en los siguientes términos: en primer término el surginiento de algunas nuevas
problemáticas -la famosa crisis de los nuevos paradigmas-. Ese primer telón de fondo sobre el cual
podemos colocar la emergencia de este pensamiento se basa ante las carencias de los paradigmas
dominantes, tanto en filosofía como en las ciencias sociales en general. Éstas tenían que ver más con
posiciones sistémicas o sistemológicas, en las cuales la problemática aún en el pensamiento más fuerte
de corte estructural existe un tratamiento hacia los actores. El problema del auge de la fenomenología se
encuadra, como acotamos dentro de esa crisis de los paradigmas, aquellos enfoques de corte sistémico
en los que el sujeto no estaba presente es reinvindicado por investigaciones de corte fenomenológico en
donde el sujeto parece recibir más atención como parte integradora del medio a investigar.
Una segunda posición es que las corrientes interpretativas aparecen por primera vez como una
http://www.monografias.com/trabajos4/epistemologia/epistemologia.shtml (9 of 14)25/05/2005 13:46:57
Espistemología - Monografias.com
circunstancia investigable, son enfoques que privilegian al sistema social a las estructuras en donde el
ángulo hermenéutico o fenomenológico se sitúan desde la perspectiva del autor. En sus inicios estas
corrientes fueron acusadas de idealistas, metafísicas e individualistas no se reconocían la verdadera
importancia que tenía estos enfoques como una perspectiva diferente. Un tercer elemento es que parece
estar claro es cómo ciertas orientaciones postmodernas que cancelan la historicidad de la praxis humana,
tales como la "muerte del sujeto", la "muerte de la historia" y de las grandes concepciones, de los grandes
metarrelatos de Lyotard. Todo esto hace pensar que otra vez el actor aparezca en un primer plano del
contexto investigativo.
El contexto investigativo fenomenlógico tiene un asidero importante como elemento contextualizante en
las demandas del pensamiento social por una crisis general de la acción social que situe de manera
correcta los problemas de la vida cotidiana y los nuevos procesos de estructuración social, es decir, un
enfoque que vaya más allá de los actores. Una teoría general de la acción en donde los actores
aparezcan históricamente constituidos, no como un dato, sino que la necesidad de la vida cotidiana sea
repensada fuera de un esquema alienante, como una posibilidad de emancipación a través de esa vida
cotidiana. Es decir, que lo cotidiano por necesidad está condenado a legitimar el orden social; por lo
vivido: la experiencia vivida termina siendo no más que vivir en el sistema, dentro de la lógica del propio
sistema. Esa concepción de la vida cotidiana tiene que ser vista desde otra perspectiva y ello implica una
teoría más amplia de la acción social.
Algunos problemas que surgen de la contextualización de la fenomenlogía
El primer problema es la acción social y los actores sociales. Debe entenderse la sociedad, la
actividad y el comportamiento de los hombres en sociedad que sigue una línea de acción. Pero ésta no
es la única forma de actuación, entendida a través de la praxis. Se pensó que la praxis era nada más
aquella que tenía un sentido histórico o que tenía un sentido transformador. Cuando se habla de
conductas o de comportamientos repetidos o reiterados se sale de la esfera de la praxis. Es decir la
praxis entendida como un contenido mesiánico con un criterio historicista que con un contenido de lo
cotidiano; lo cual llevó necesariamente a reflexionar sobre la praxis.
Otro problema que surge, es de cómo entender a los actores ¿Cómo separar a los actores, de
individuos de personas, del sujeto? Cuando nos referimos a conjuntos sociales; es decir, los trabajadores
como actores sociales del proceso de producción en una sociedad determinada valdría la pena
preguntarse ¿Qué carácter tiene el actor? ¿Cómo es su papel frente a la sociedad? ¿qué papel cumple
en una determinada coyuntura social?. El actor debe tener una competencia para actuar socialmente y
además deberá tener flexibilidad para actuar, o como traducen las teorías neoliberales que sea
racionalmente capaz de actuar en la lógica de sus propios fines y que busque los medios que le sean
http://www.monografias.com/trabajos4/epistemologia/epistemologia.shtml (10 of 14)25/05/2005 13:46:57
Espistemología - Monografias.com
competentes para lograrlos. El actor se dimensiona o se sobredimensiona en función de as situaciones y
contextos que le tocan vivir.
Es necesario reflexionar sobre si el “acto” y “acción” es lo mismo. es decir, si la acción no puede
generarnos actos que no estaban previstos. por ejemplo: lo que uno llama “efectos perversos”. Hay toda
una corriente que trata de estudiar los actos no intencionados de la acción social que logran tener una
fuerza social impresionante. A manera de ejemplo cuando nos inhibimos de participar en algo, estoy
participando. Es decir, cuando dejo de votar estoy participando en el juego de la abstención con todos los
efectos que se conocen en torno a esta situación. Entonces uno se encuentra conque los actos no
intencionados de la acción social son predominantes para definir la acción misma.
Una sociedad define la actuación de sus miembros y le define también metas a sus miembros en
parámetros que le sean racionales para el mantenimiento y la reproducción del sistema. Dentro de la
misma línea problemática de la acción social y de los actores cabría preguntarse acerca de la motivación
de la acción ¿qué motiva la acción?y en un concepto más cercano a la fenomenología: qué es la
intencionalidad de la acción.
Cuando se analiza socialmente la intencionalidad de los actores se ve que hay mucha más
correspondencia entre la actuación de los actores y la forma cómo esta organizada la sociedad. Esta
sociedad define un proyecto que aparentemente son los proyectos de todos, es decir, cuando se
establece el sistema normativo de la sociedad, lo está haciendo con la idea de que este sistema
normativo sea aceptado por todos; allí la ignorancia no exime el cumplimiento.
Otro gran problema es la relación entre la acción social y la estructura social. (relación individuosociedad). Es decir en qué planos, en qué niveles , qué dimensión se debe colocar la acción que los
distintos actores hacen en la vida social: y quién estructura la vida social. Nosotros vivimos en un mundo
que ya encontramos organizado, socializado y todo pretende mostrarnos cómo vivir en ese mundo. Las
estructuras sociales han sido constituidas por las actividades de los sujetos o de los individuos y que en
esa forma de organización de la actividad en estructuras, es decir en formas de prácticas y actividades
que ya están dadas o aparecen dadas. Hablando dialécticamente nos interesa tanto las estructuras sino
como se estructuran esas estructuras.
Por lo tanto la dinámica que rige la formación de la vida social y cómo se estructura el mundo de
la vida , y cómo la acción social se relacionan con las estructuras, es un problema sumamente
importante porque no es un problema directo, no es un problema consecuencial, no es un reflejo como
http://www.monografias.com/trabajos4/epistemologia/epistemologia.shtml (11 of 14)25/05/2005 13:46:57
Espistemología - Monografias.com
pensaba el “viejo marxismo”es decir, n actuaba como reflejo de una estructura de una sociedad dada.
Otro concepto que vale la pena analizar es el de “mediación social” la acción social y la de todos
los que orgánicamente vivimos en una sociedad , nos permite conocer a la sociedad que está
estructurada no de una manera inmediata, sino más bien de una manera mediatizada: por eso nuestras
respuestas no son uniformes ni son homogéneas , y esa mediatización la hacen unos organismos
determinados, o la hacen unos vehículos determinados que actúan como mediador. El gran mediador por
ejemplo es el lenguaje: asimismo, los medios de comunicación, la familia las instituciones, etc.
Los medios masivos de información han radicalizado nuestras vidas, su influencia es definitiva en
la conformación de las escalas de valores en las estructuras normativas En el mundo moderno no se
puede hablar de información, ni de opinión, ni de conformación de valores sin partir de la influencia
positiva o negativa de los medios de comunicación (es el gran mediador por excelencia).
Otro problema que afrontar serían los discursos de la acción. La discursividad de la acción nos
introduce en las teorías del lenguaje nos problematiza la manera cómo nosotros prefiguramos
simbólicamente la acción. En los discursos de la acción cabría anotar varios problemas: la forma cómo se
constituyen esos discursos, la cultura es un campo bien importante para entender la forma cómo se
arman o se traman los discursos. otro problema es la competencia del actor en hace inteligible para el
otro el significado de su propia acción. Una acción se le pueden dar una gran cantidad de significados
que tienen que ver con aspectos culturales, con los valores,etc. En cuanto a los significados del discurso
desde la óptica fenomenológica, los autores parten de una tesis sencilla tal y como “toda acción es
significativa” la significatividad de mi acción es lo que la hace inteligible para los otros. Entonces quiere
decir que la significatividad no es lineal, ni está previamente definida sino que hay que verla dentro de
una teoría general de la acción en donde pueden aparecer actos no intencionados, no deseados, o actos
n deseados pero reprimidos y ahí tiene que ver con la sociedad, la cultura y muchas maneras de
entender.
Recogiendo el pensamiento fenomenológico, hay acciones que están inscritas en el mundo, la
vida, son acciones que tienen que ver con el mundo natural, con una actitud natural del actor. Existen otro
tipo de acciones las “acciones con arreglo a fines” y “acciones con arreglo a valores” que son acciones
que tienen conductas relacionadas con la política, la religión, la moral, etc. Asimismo existen las acciones
no intencionadas que aparecen como desviaciones de lo que se supone es la actitud normal o natural. y
las acciones no están pensadas racionalmente.
http://www.monografias.com/trabajos4/epistemologia/epistemologia.shtml (12 of 14)25/05/2005 13:46:57
Espistemología - Monografias.com
Si el centro de la actividad de los actores, en donde se define su actitud natural, su actitud ante el
mundo, según los fenomenólogos, es la vida cotidiana o el mundo de todos los días, el mundo que está
allí. Es el mundo que necesita ser reflexionado, que es evidente por sí mismo. En la cotidianidad es
donde se encuentran los elementos que le dan sentido a la vida, a las vivencias. Construir el mundo de la
vida cotidiana es asignarle significados (tipificar el mundo cotidiano). Una primera tipificación es preguntar
¿Quién es otro? con el cual interactúo y establezco mis acciones y le transmito mis significado- ¿Quién es
mi semejante? es comprender la significación que el otro le da a mi planteamiento para construir del
mundo en donde yo vivo. Sin embargo, la expresividad humana debe ser capaz de objetivarse, o sea
manifestarse en productos que estén al alcance y comprensión de otros. Dichas objetivaciones sirven
como índices más o menos duraderos de los procesos subjetivos de quienes los producen, lo que permite
que su disponibilidad se extienda más allá de la situación “cara a cara” (Berger y Luckman, 1987).
Algunas reflexiones en torno a lo planteado en este trabajo...
Es evidente que la mayoría de nuestras investigaciones han sido inscritas en el marco del paradigma
empírico-analitico, haciendo uso de los fundamentos de la racionalidad instrumental como han planteado
Habermas y otros autores estudiados; quizás el no insistir en consideraciones de tipo teórico a la hora de
estudiar a fondo de los resultados de un trabajo de esta naturaleza ha llevado a que estas reflexiones no
se les de la debida connotación. Sin embargo, y para beneficio de la producción de ese conociemiento
que tanta falta le hace a nuestro sistema educativo se ha estado gestando y ya están sisponible una
nueva generación de investigadores que ya tienen en cuenta un rumbo críitico y analíiitico en torno a las
consideraciones de tipo epistemológico necesarios en un proceso investigativo.
Existe en el movimiento investigativo una suerte de empuje de toda esta metodología de carácter
social y críitica que ya se está aplicando en las diferentes estudios acometidos.
Por estas razones se hace necesario una toma de consciencia de los investigadores sociales y las
entidades que tiene a su cargo la difusión de estas corrientes, el hacer llegar a la masa docente, ávida de
conocimiento, pero sin muchas oportunidades de asumirlos por cuanto los curricula actuales de la
mayoría de los centros de estudios de posgrado parecieran no hacerce partícipes de esta realidad.
Bibliografía
http://www.monografias.com/trabajos4/epistemologia/epistemologia.shtml (13 of 14)25/05/2005 13:46:57
Espistemología - Monografias.com
Berger H.Luckman B. (1987) La vida cotidiana
Casanova J. La Educación de posgrado
Castell M. (1981) Métodología y epistemología de las ciencias sociales "Ed. Ayuso Madrid
Carr W. Kemmis B. (1986) Ciencia social crítica
Tellez M.(1996) "Espistemología y educación. Estudio sobre la pesrspectiva empírico analítica.
Cuadernos de posgrado Nº 13 UCV.
Habermas J. (1971) "La lógica de las ciencias sociales . edt Tecnos
Ruiz C. Girón T. Ramirez R. (1990) "Evaluación del Programa de Especialización en Evaluación
Educativa que Llevado a Cabo en el Instituto Pedagógico J.M.Siso Martínez" trabajo
presentado en el marco de las XI jornadas de Investigación UPEL Caracas.
Trabajo enviado por:
Carlos M.. Ruiz P.
[email protected]
Volver al inicio | Volver arriba
Términos y Condiciones - Haga Publicidad en Monografias.com - Contáctenos
© 1997 Lucas Morea / Sinexi S.A.
http://www.monografias.com/trabajos4/epistemologia/epistemologia.shtml (14 of 14)25/05/2005 13:46:57
Fuerza y movimiento- Monografias.com
Regístrese
Compare
precios
Nuevos
Consulte
a los
expertos
Buscar:
Publicar
Toolbar
Foros
Ayuda
Recomendar
Buscar
Recomendamos:
Barra de
herramientas
gratuita
Avanzada
Agregar a Recomendar
favoritos
Imprimir
Bajar
Trabajo
(Descargar)
Fuerza y movimiento
1. Leyes de Newton I
2. Fuerza y movimiento
1.8E Hay dos fuerzas que actúan sobre una baja de 2.0 kg de la fig. 2 pero solo una es mostrada. La
figura también muestra la aceleración de la caja. Encontrar la segunda fuerza:
a. En connotación de unidad vectorial y
b. b) En magnitud y dirección.
2.12E ¿Cuáles son la masa y peso de: a) Un trineo de 1400 lb y b) de una bomba de calor de 421 kg?
3.15E Una cierta partícula tiene un peso de 20N en el punto donde la aceleración de la caída libre es de
9.8 m/s2.
a. ¿Cuáles son el peso y la masa de la partícula donde el punto de la aceleración de la caída libre es
de 9.4 m/se?
b. ¿Cuáles son el pero y masa de la partícula sí esta es movida a un punto en el espacio donde la
aceleración de la caída libre es cero?
4.18E Un salami de 11 kg esta sujeto por un cordón que va del techo (fig 1ª);
a. ¿Cuál es la lectura de la escala (fig 1b) si el salami esta sujeto por un cordón que va alrededor de
una polea y a una escala. El lado opuesto de la escala está sujeto por un cordón que va a una
http://www.monografias.com/trabajos12/eleynewt/eleynewt.shtml (1 of 7)25/05/2005 13:47:15
Fuerza y movimiento- Monografias.com
pared.
b. ¿Cuál es la lectura de esa escala?
c. En la fig 1c, la pared a sido remplazada por un segundo salami a la izquierda y el ensamblaje esta
estacionario. ¿Cuál es la lectura en la escala ahora?
5.21E Un trineo cohete experimental puede ser acelerado a una cifra constante desde el reposo de 1600
km/h en 1.8 segundos. ¿Cuál es la magnitud promedio de la fuerza requerida, sí el trineo tiene una masa
de 500 kg?

IPN-UPIICSA PRÁCTICA Nº2 Mecánica Clásica
LEYES DE NEWTON I
1.23E Si un núcleo captura un neutrón desorbitado, éste deberá atraer al neutrón hasta pararlo dentro del
diámetro del núcleo por medio de una gran fuerza. La fuera que mantiene al núcleo unido, es
esencialmente cero fuera del núcleo. Suponiendo que el neutrón desviado con una velocidad inicial 1.4 x
107 m/s2 es capturado justo por un núcleo con un diámetro d = 1.0 x 10-14 m. Asumiendo que la fuerza
del neutrón es constante encontrar la magnitud de esa fuerza. La masa del neutrón es de 1.67 x 1027 kg.
R: |F|= 16N
2.27E Referirse a la fig 1 dado que la masa del bloque es de 8.5 kg y el ángulo • = 30º. Encontrar:
a. La tensión en la cuerda
b. La fuerza Normal actuando sobre el bloque
c. Si la cuerda se corta, encontrar la magnitud de la aceleración del bloque
R: a) 42N, b) 72N, c) –4.9 m/s2
3.32E Un electrón es proyectado horizontalmente a una velocidad de 1.2 x 107 m/s hacia un campo
eléctrico que proporciona una fuerza vertical constante de 4.5 x 10-6 N sobre ella. La masa del electrón es
de 9.11 x 10-31 kg. Determinar la distancia vertical que el electrón es rechazado durante el tiempo que se
a movido 30 mm horizontalmente.
R: 1.5 x 10-3 m
4.36P Una niña de 40 kg y un trineo de 8.4 kg están en la superficie de un lago congelado separados por
un cuerda de 15m. Por medio de la cuerda la niña proporciona una fuerza de 5.2N, jalando hacia ella:
http://www.monografias.com/trabajos12/eleynewt/eleynewt.shtml (2 of 7)25/05/2005 13:47:15
Fuerza y movimiento- Monografias.com
a. ¿Cuál es la aceleración del trineo?
b. ¿Cuál es la aceleración de la niña?
c. ¿Qué tan lejos de la posición inicial de la niña se encuentran asumiendo que no actúa ninguna
fuerza de fricción?
R: a) 0.62 m/s2 b) 0.13 m/s2, c) 2.6m
5.38P Una esfera de masa 3 x 10-4 esta suspendida de un cordón. Una brisa horizontal constante empuja
la esfera de modo que el cordón forma un ángulo de 33º con la vertical cuando esta en reposo. Encontrar:
a. La magnitud del empuje;
b. La Tensión en el cordón.
R: a) 2.2 x 10-3N, b) 3.7 x 10-3N

IPN-UPIICSA PRÁCTICA Nº3 Mecánica Clásica
FUERZA Y MOVIMIENTO
1.40P Dos bloques están en contacto sobre una mesa sin fricción. Una fuerza horizontal se le aplica a una
bloque como se muestra en la fig 1. Si m1 = 2.3 kg, m2 1.2 kg y F = 3.2N,
a. Encontrar la fuerza entre los dos bloques.
b. Demuestra que si un fuerza de la misma magnitud F se le aplica a m2 pero en dirección opuesta,
la fuerza entre los dos bloques es de 2.1N, el cual, no es el mismo valor en el inciso (a) explica la
diferencia.
R: a) 1.1N, b) 2.1N
2.43P Un elevador y su carga tiene una masa combinada de 1600 kg. Encontrar la tensión en el cable de
soporte cuando el elevador originalmente moviéndose hacia abajo a 12 m/s llegue al reposo con una
aceleración constante a una distancia de 42m.
R: 1.8 x 104N
3.51P Una persona de 80 kg esta haciendo paracaidismo y experimentando una aceleración hacia abajo a
12 m/s, la masa del paracaídas es de 5 kg.
a. ¿Qué fuerza hacia arriba es ejercida en el paracaídas abierto por el aire?
http://www.monografias.com/trabajos12/eleynewt/eleynewt.shtml (3 of 7)25/05/2005 13:47:15
Fuerza y movimiento- Monografias.com
b. ¿Qué fuerza hacia abajo es ejercida por la persona en el paracaídas?
R: a) 620N, b) 580N
4.54P Imaginar una nave aterrizando acercándose a la superficie de Calisto, una de las lunas de Júpiter, si
los motores proveen una fuerza hacia arriba de 3260N, la nave desciende a velocidad constante, si los
motores proveen únicamente 2200N, la nave acelera hacia abajo a 0.39 m/s2.
a. ¿Cuál es el peso de la nave aterrizando en la cercanía de la superficie de Calisto?
b. ¿Cuál es la masa de la Nava?
c. ¿Cuál es la aceleración de la caída libre cerca de la superficie de Calisto?
R: a) 3260N, b) 2.7 x 103 kg, c) 1.2 m/s2
5.56P Una cadena consiste de 5 eslabones, cada uno de masa de 0.100 kg, es elevada verticalmente con
una aceleración constante de 2.50 m/s2 como se muestra en la fig 2, determinar:
a. La fuerzas que actúan entre los eslabones adyacentes
b. La fuerza F ejercida en el eslabón de arriba por la persona que levanta la cadena
c. La fuerza neta que esta acelerando a cada eslabón
R: a) F12 = 1.23N, F32 = 2.46N, F43 = 3.69N, F54 = 6.16N, b) F45 = F54 = 6.15N, c) 0.25N.

IPN-UPIICSA PRÁCTICA Nº4 Mecánica Clásica
LEYES DE NEWTON I
14.5 Una masa de m1 = 2.2 kg. se mueve en un plano inclinado sin fricción en un ángulo de 30º hacia
arriba de la horizontal, como se muestra en la Fig. 1- Esta conectado por un hilo con masa despreciable
que pasa por un polea de fricción y masa despreciable a otra masa m2 = 2.7 kg que cuelga verticalmente
sin tocar nada.
a. Dibujo del diagrama del Cuerpo Libre (D.C.L.) de cada una de las masas
b. Calcula la magnitud y dirección de la aceleración de m1
http://www.monografias.com/trabajos12/eleynewt/eleynewt.shtml (4 of 7)25/05/2005 13:47:15
Fuerza y movimiento- Monografias.com
c. Calcule la tensión en la cuerda.
2.4.4 Un bloque de 50 kg se encuentra en reposo y sostenido en una superficie que esta a 601 sobre la
horizontal y que tiene un coeficiente de fricción estático de •s = 0.4 y un coeficiente de fricción cinético •k =
0.3. Encuentre:
a. La magnitud y dirección de la aceleración cuando el bloque se suelta
b. La Aceleración si el bloque hubiera estado ya moviéndose
c. Supóngase que la Fuerza F = 100N, esta ahora ejercida en el bloque paralela al inclinado, dirigida
hacia arriba, y para empujar el bloque hacia arriba por la superficie inclinada. ¿Cuál es la
aceleración?
3.4.3 Un estudiante desea determinar el coeficiente de fricción estático entre un bloque sólido y una tabla
de madera. Coloca la tabla sobre una mesa y coloca el bloque en la tabla, y gradualmente va inclinado l
orilla de la tabla. Cuándo la orilla de la tabla ha sido levantada 20 cm el bloque se desliza 77.3 cm hacia
abajo y recorre la longitud total de la tabla en 1.6 s, Encuentre:
a. El coeficiente de fricción estático
b. Coeficiente de fricción cinético
c. El ángulo para el cual la velocidad del bloque va a se constante
d. Que tanta deberá de ser la presión sobre el bloque, perpendicular a la superficie inclinada para
evitar que se deslice hacia abajo si este tiene un ángulo de 30º.
4.4.2 Las fuerzas F1 y F2 actúan de una manera simultanea en un partícula de masa m = 1.5 kg. F1 tiene
una magnitud de 12 N y esta dirigida a 3º debajo de la horizontal, mientras que F2 es de 5N y dirigida 45º
sobre la horizontal.
a. Encuentre la magnitud y dirección de la Fuerza Resultante
b. Encuentre la magnitud y dirección de la aceleración resultando de la partícula

IPN-UPIICSA PRÁCTICA Nº5 Mecánica Clásica
LEYES DE NEWTON I
158p . Un bloque de masa m1 = 3.70 kg está sobre un plano inclinado sin fricción de ángulo • = 30º esta
http://www.monografias.com/trabajos12/eleynewt/eleynewt.shtml (5 of 7)25/05/2005 13:47:15
Fuerza y movimiento- Monografias.com
conectado por un cordón sobre una polea pequeña, sin fricción y sin masa a un segundo bloque de masa
m2 = 2.30 kg colgando verticalmente, Cuáles son:
a. ¿La magnitud de la aceleración de cada bloque?
b. ¿La dirección de la aceleración de m2?
c. ¿Cuál es la tensión del cordón?
260p. Un bloque es proyectado hacia arriba de un plano inclinado sin fricción con velocidad inicial de v0. El
ángulo de inclinación es •.
a. ¿Qué tan lejos hacia arriba del plano llega?
b. ¿cuánto le toma en llegar ahí?
c. ¿Cuál es si velocidad cuando regresa al fondo?
Determine los valores numéricos para • = 32.0º y v0 = 3.50 m/s
364p. Un mono de 11 kg trepa en una cuerda sin masa que corre sobre una rama de un árbol (¡sin
fricción!) y unida a un paquete de 15 kg sobre el piso. (a) ¿Cuál es la magnitud mínima de la aceleración
con la que el mono deberá trepar sí a de levantar el paquete del piso? Si, después de que el paquete se
haya elevado, el mono deja de trepar y se sostiene de la cuerda, ¿Cuál será ahora (b) la aceleración del
mono y (c) la tensión en la cuerda?
468p Un bloque de 5 kg es jalado a lo largo de un piso horizontal sin fricción por un cordón que ejerce una
fuerza F = 12.0 N con una ángulo de 25º sobre la horizontal.
a. ¿Cuál es la aceleración del bloque?
b. La fuerza F se incrementa lentamente, ¿cuál es su valor justo antes de que el bloque sea
levantado (completamente del piso)?
c. ¿Cuál es la aceleración del bloque justo antes de que sea levantado (completamente) del piso?
570p. Un Globo de aire caliente de masa total M está descendiendo verticalmente con una aceleración a
hacia abajo. ¿Cuánto masa se a de arrojar para dar al globo una aceleración a hacia arriba (de la misma
magnitud pero de dirección opuesta)? Asumiendo que la fuerza hacia arriba del aire (el que empuja) no
cambie por causa de la masa (del lastre) que se a perdido.
http://www.monografias.com/trabajos12/eleynewt/eleynewt.shtml (6 of 7)25/05/2005 13:47:15
Fuerza y movimiento- Monografias.com
Iván Escalona
[email protected]
Volver al inicio | Volver arriba
Términos y Condiciones - Haga Publicidad en Monografias.com - Contáctenos
© 1997 Lucas Morea / Sinexi S.A.
http://www.monografias.com/trabajos12/eleynewt/eleynewt.shtml (7 of 7)25/05/2005 13:47:15
SÓCRATES: - Monografias.com
Regístrese
Compare
precios
Buscar:
Nuevos
Consulte
a los
expertos
Publicar
Toolbar
Foros
Ayuda
Recomendar
Buscar
Recomendamos:
Barra de
herramientas
gratuita
Avanzada
Agregar a Recomendar
favoritos
Filósofos de la naturaleza
INDICE
SÓCRATES
La Politica
Enseñanzas
El juicio
TALES DE MILETO
PLATÓN
Obra
Teoría de las ideas
Teoría del conocimiento
Naturaleza de las ideas
http://www.monografias.com/trabajos7/filo/filo.shtml (1 of 16)25/05/2005 13:47:29
Imprimir
Bajar
Trabajo
(Descargar)
SÓCRATES: - Monografias.com
Arte
ARISTÓTELES
Obras
Física o filosofía natural
Ética
Lógica
Metafísica
Influencia
HERACLITO
ANAXIMENES
ANAXIMANDRO
PITÁGORAS
Doctrinas básicas
Teoría de los números
Astronomía
LA EDAD MEDIA
SAN AGUSTÍN DE HIPONA
Contienda intelectual
SÓCRATES:
http://www.monografias.com/trabajos7/filo/filo.shtml (2 of 16)25/05/2005 13:47:29
SÓCRATES: - Monografias.com
Sócrates (c. 470-c. 399 a.C.), Fue un filósofo griego fundador de la filosofía moral, o axiología que ha
tenido gran peso en la filosofía occidental por su influencia sobre Platón. Nacido en Atenas, hijo de
Sofronisco, un escultor, y de Fenareta, una comadrona, recibió una educación tradicional en literatura,
música y gimnasia. Más tarde, se familiarizó con la retórica y la dialéctica de los sofistas, las
especulaciones de los filósofos jonios y la cultura general de la Atenas de Pericles. Al principio, Sócrates
siguió el trabajo de su padre; realizó un conjunto de estatuas de las tres Gracias, que estuvieron en la
entrada de la Acrópolis hasta el siglo II a.C. Durante la guerra del Peloponeso contra Esparta, sirvió como
soldado de infantería con gran valor en las batallas de Potidaea en el 432-430 a.C., Delio en el 424 a.C.,
y Anfípolis en el 422 a.C.
Sócrates creía en la superioridad de la discusión sobre la escritura y por lo tanto pasó la mayor parte de
su vida de adulto en los mercados y plazas públicas de Atenas, iniciando diálogos y discusiones con todo
aquel que quisiera escucharle, y a quienes solía responder mediante preguntas. Un método denominado
mayéutica, o arte de alumbrar los espíritus, es decir, lograr que el interlocutor descubra sus propias
verdades. Según los testimonios de su época, Sócrates era poco agraciado y corto de estatura,
elementos que no le impedían actuar con gran audacia y gran dominio de sí mismo. Apreciaba mucho la
vida y alcanzó popularidad social por su viva inteligencia y un sentido del humor agudo desprovisto de
sátira o cinismo.
La Politica
Sócrates fue obediente con las leyes de Atenas, pero en general evitaba la política, contenido por lo que
él llamaba una advertencia divina. Creía que había recibido una llamada para ejercer la filosofía y que
podría servir mejor a su país dedicándose a la enseñanza y persuadiendo a los atenienses para que
hicieran examen de conciencia y se ocuparan de su alma. No escribió ningún libro ni tampoco fundó una
escuela regular de filosofía. Todo lo que se sabe con certeza sobre su personalidad y su forma de pensar
se extrae de los trabajos de dos de sus discípulos más notables: Platón, que atribuyó sus propias ideas a
su maestro y el historiador Jenofonte, un escritor prosaico que quizá no consiguió comprender muchas de
las doctrinas de Sócrates. Platón describió a Sócrates escondiéndose detrás de una irónica profesión de
ignorancia, conocida como ironía socrática, y poseyendo una agudeza mental y un ingenio que le
permitían entrar en las discusiones con gran facilidad.
Enseñanzas
La contribución de Sócrates a la filosofía ha sido de un marcado tono ético. La base de sus enseñanzas y
lo que inculcó, fue la creencia en una comprensión objetiva de los conceptos de justicia, amor y virtud y el
conocimiento de uno mismo. Creía que todo vicio es el resultado de la ignorancia y que ninguna persona
desea el mal; a su vez, la virtud es conocimiento y aquellos que conocen el bien, actuarán de manera
justa. Su lógica hizo hincapié en la discusión racional y la búsqueda de definiciones generales, como
queda claro en los escritos de su joven discípulo, Platón, y del alumno de éste, Aristóteles. A través de los
escritos de estos filósofos Sócrates incidió mucho en el curso posterior del pensamiento especulativo
occidental.
El juicio
http://www.monografias.com/trabajos7/filo/filo.shtml (3 of 16)25/05/2005 13:47:29
SÓCRATES: - Monografias.com
Aunque fue un patriota y un hombre de profundas convicciones religiosas, Sócrates sufrió sin embargo la
desconfianza de muchos de sus contemporáneos, a los que les disgustaba su actitud hacia el Estado
ateniense y la religión establecida. Fue acusado en el 399 a.C. de despreciar a los dioses del Estado y de
introducir nuevas deidades, una referencia al daemonion, o voz interior mística, a la que Sócrates aludía a
menudo. También fue acusado de corromper la moral de la juventud, alejándola de los principios de la
democracia y se le confundió con los sofistas, tal vez a consecuencia de la caricatura que realizó de él el
poeta cómico Aristófanes en la comedia Las nubes representándole como el dueño de una "tienda de
ideas" en la que se enseñaba a los jóvenes a hacer que la peor razón apareciera como la razón mejor.
La Apología de Platón recoge lo esencial de la defensa de Sócrates en su propio juicio; una valiente
reivindicación de toda su vida. Fue condenado a muerte, aunque la sentencia sólo logró una escasa
mayoría. Cuando, de acuerdo con la práctica legal de Atenas, Sócrates hizo una réplica irónica a la
sentencia de muerte del tribunal proponiendo pagar tan sólo una pequeña multa dado el escaso valor que
tenía para el Estado un hombre dotado de una misión filosófica, enfadó tanto al jurado que éste volvió a
votar a favor de la pena de muerte por una abultada mayoría.
Los amigos de Sócrates planearon su huida de la prisión pero prefirió acatar la ley y murió por ello. Pasó
sus últimos días con sus amigos y seguidores, como queda recogido en la obra Fedón de Platón, y
durante la noche cumplió su sentencia bebiendo una copa de cicuta siguiendo el procedimiento habitual
de ejecución. Estaba casado con Jantipa, una mujer de reconocido mal genio y tenía tres hijos.
TALES DE MILETO
Tales de Mileto (c. 625-c. 546 a.C.),Fue un filósofo griego nacido en Mileto (Asia Menor). Fue el fundador
de la filosofía griega, y está considerado como uno de los Siete Sabios de Grecia. Tales llegó a ser
famoso por sus conocimientos de astronomía después de predecir el eclipse de sol que ocurrió el 28 de
mayo del 585 a.C. Se dice también que introdujo la geometría en Grecia. Según Tales, el principio original
de todas las cosas es el agua, de la que todo procede y a la que todo vuelve otra vez. Antes de Tales, las
explicaciones del universo eran mitológicas, y su interés por la sustancia física básica del mundo marca el
nacimiento del pensamiento científico. Tales no dejó escritos; el conocimiento que se tiene de él procede
de lo que se cuenta en la Metafísica de Aristóteles.
Tales de Mileto fue una persona que viajo mucho por el mundo.
Se cuenta de el que midió la altura de una pirámide de Egipto , teniendo en cuenta la sombra de la
misma, en e l momento en que su propia sombra media exactamente lo mismo que el .
También se dice que supo predecir mediante cálculos matemáticos un eclipse solar en el año de 585
antes de Cristo.
Tales opinaba que el agua era el origen de todas las cosas, opinaba que toda clase de vida tiene su
origen en el agua, y que toda clase de vida vuelve a convertirse en agua cuando se disuelve.
http://www.monografias.com/trabajos7/filo/filo.shtml (4 of 16)25/05/2005 13:47:29
SÓCRATES: - Monografias.com
Estando en Egipto, es muy probable que viera como todo crecía en cuanto las aguas del Nilo se retiraban
de las regiones de su delta.
Se preguntaba como el agua puede convertirse en hielo y vapor, y luego volver a ser agua de nuevo.
Al parecer, Tales de Mileto también dijo que "todo esta lleno de dioses".
Tales de Mileto hace parte de los tres filósofos de Mileto: Anaximandro, Anaxímenes y él.
Los tres filósofos de Mileto opinaban que tenia que haber una y quizás solo una materia primaria de la
que estaba hecha todo lo demás.
PLATÓN
Platón (c. 428-c. 347 a.C.), Fue un filósofo griego, uno de los pensadores más creativos e influyentes de
la filosofía occidental.
Platón nació en el seno de una familia aristocrática en Atenas. Su padre, Aristón, era al parecer,
descendiente de los primeros reyes de Atenas. Perictione, se llamaba su madre.
De joven, Platón tuvo ambiciones políticas pero se desilusionó con los gobernantes de Atenas. Más tarde
se proclamó discípulo de Sócrates, aceptó su filosofía y su forma dialéctica de debate: la obtención de la
verdad mediante preguntas, respuestas y más preguntas.
Pasó los últimos años de su vida dando conferencias en la Academia y escribiendo. Murió próximo a los
80 años en Atenas en el año 348 o 347 a.C.
Obra
Los escritos de Platón adoptaban la forma de diálogos, donde se exponían ideas filosóficas, se discutían
y se criticaban en el contexto de una conversación o un debate en el que participaban dos o más
personas.
Teoría de las ideas
En el centro de la filosofía de Platón está su teoría de las formas o de las ideas. En el fondo, su idea del
conocimiento, su teoría ética, su psicología, su concepto del Estado y su perspectiva del arte deben ser
entendidos desde esta perspectiva.
Teoría del conocimiento
Influido por Sócrates, Platón estaba persuadido de que el conocimiento se puede alcanzar. También
http://www.monografias.com/trabajos7/filo/filo.shtml (5 of 16)25/05/2005 13:47:29
SÓCRATES: - Monografias.com
estaba convencido de dos características esenciales del conocimiento. Primera, el conocimiento debe ser
certero e infalible. Segunda, el conocimiento debe tener como objeto lo que es en verdad real en
contraste con lo que lo es sólo en apariencia. Ya que para Platón lo que es real tiene que ser fijo,
permanente e inmutable, identificó lo real con la esfera ideal de la existencia en oposición al mundo físico
del devenir. Pensaba que las proposiciones derivadas de la experiencia tienen, a lo sumo, un grado de
probabilidad. No son ciertas.
Naturaleza de las ideas
La teoría de las ideas se puede entender mejor en términos de entidades matemáticas. Un círculo, por
ejemplo, se define como una figura plana compuesta por una serie de puntos, todos equidistantes de un
mismo lugar. Sin embargo, nadie ha visto en realidad esa figura.
Lo que la gente ha visto son figuras trazadas que resultan aproximaciones más o menos acertadas del
círculo ideal. De hecho, cuando los matemáticos definen un círculo, los puntos mencionados no son
espaciales, sino lógicos. No ocupan espacio. No obstante, aunque la forma de un círculo no se ha visto
nunca —y no se podrá ver jamás— los matemáticos y otros sí saben lo que es. Para Platón, por lo tanto,
la forma de círculo existe, pero no en el mundo físico del espacio y del tiempo. Existe como un objeto
inmutable en el ámbito de las ideas, que sólo puede ser conocido mediante la razón. Las ideas tienen
mayor entidad que los objetos en el mundo físico tanto por su perfección y estabilidad como por el hecho
de ser modelos, semejanzas que dan a los objetos físicos comunes lo que tienen de realidad.
La palabra justicia, por ejemplo, puede aplicarse a centenares de acciones concretas porque esos actos
tienen algo en común, se parecen a, participan de, la idea de justicia. Una persona es humana porque se
parece a, o participa de, la idea de humanidad. Si humanidad se define en términos de ser un animal
racional, entonces una persona es humana porque es racional. Un objeto es bonito porque participa de la
idea, o forma, de belleza. Por lo tanto, cada cosa en el mundo del espacio y el tiempo es lo que es en
virtud de su parecido con su idea universal. La habilidad para definir el término universal es la prueba de
que se ha conseguido dominar la idea a la que ese universal hace referencia.
En el fondo, la teoría de las ideas está destinada a explicar el camino por el que uno alcanza el
conocimiento y también cómo las cosas han llegado a ser lo que son.
Arte
Platón tenía una idea antagónica del arte y del artista aunque aprobara algunos tipos de arte religioso y
moralista. Su enfoque tiene que ver una vez más con su teoría de las ideas. Una flor bonita, por ejemplo,
es una copia o imitación de las ideas universales de flor y belleza. La flor física es una reproducción de la
realidad, es decir, de las ideas. Un cuadro de la flor es, por lo tanto, una reproducción secundaria de la
realidad. Esto también significa que el artista es una reproducción de segundo orden del conocimiento y,
en realidad, la crítica frecuente de Platón hacia los artistas era que carecían de un conocimiento
verdadero de lo que estaban haciendo. La creación artística, observó Platón, parecía tener sus raíces en
una inspirada locura.
ARISTÓTELES
http://www.monografias.com/trabajos7/filo/filo.shtml (6 of 16)25/05/2005 13:47:29
SÓCRATES: - Monografias.com
Aristóteles (384-322 a.C.),Fue un filósofo y científico griego que comparte junto a Platón y Sócrates la
distinción de ser los filósofos más destacados de la antigüedad. Nacido en Estagira (Macedonia), hijo de
un médico de la corte real, Aristóteles se trasladó a Atenas a los 17 años para estudiar en la Academia de
Platón. Permaneció en esta ciudad unos 20 años, primero como estudiante y más tarde como maestro.
Obras
Al igual que Platón, en sus primeros años en la Academia, Aristóteles utilizó muy a menudo la forma
dialogada de razonamiento aunque carecía del talento imaginativo de Platón,
Quizás debido a la influencia de su padre, que era médico, la filosofía de Aristóteles hacía hincapié sobre
todo en la biología, frente a la importancia que Platón concedía a las matemáticas. Para Aristóteles el
mundo estaba compuesto por individuos (sustancias) que se presentaban en tipos naturales fijos
(especies). Cada individuo cuenta con un patrón innato específico de desarrollo y tiende en su
crecimiento hacia la debida autorrealización como ejemplo de su clase. El crecimiento, la finalidad y la
dirección son pues aspectos innatos a la naturaleza, y aunque la ciencia estudia los tipos generales,
éstos, según Aristóteles, encuentran su existencia en individuos específicos.
Física o filosofía natural
En astronomía Aristóteles propone un Universo esférico y finito que tiene a la Tierra como centro. La
parte central está compuesta por cuatro elementos: tierra, aire, fuego y agua.
Ética
Aristóteles creía que la libertad de elección del individuo hacía imposible un análisis preciso y completo
de las cuestiones humanas, con lo que las "ciencias prácticas", como la política o la ética, se llamaban
ciencias sólo por cortesía y analogía. Todos los seres humanos anhelan la "felicidad", es decir, una
realización activa y comprometida de sus capacidades innatas, aunque este objetivo puede ser alcanzado
por muchos caminos.
Aristóteles distinguía dos tipos de "virtud" o excelencia humana: moral e intelectual. La virtud moral es
una expresión del carácter, producto de los hábitos que reflejan opciones repetidas. Una virtud moral
siempre es el punto medio entre dos extremos menos deseables. El valor, por ejemplo, es el punto
intermedio entre la cobardía y la impetuosidad irreflexiva; la generosidad, por su parte, constituiría el
punto intermedio entre el derroche y la tacañería. Las virtudes intelectuales, sin embargo, no están
sujetas a estas doctrinas de punto intermedio. La ética aristotélica es una ética elitista: para él, la plena
excelencia sólo puede ser alcanzada por el varón adulto y maduro perteneciente a la clase alta y no por
las mujeres, niños, "bárbaros" (no griegos) o "mecánicos" asalariados (trabajadores manuales), a los que
Aristóteles se negaba a conceder el derecho al voto.
Lógica
http://www.monografias.com/trabajos7/filo/filo.shtml (7 of 16)25/05/2005 13:47:29
SÓCRATES: - Monografias.com
En lógica, Aristóteles desarrolló reglas para establecer un razonamiento encadenado que, si se
respetaban, no producirían nunca falsas conclusiones si la reflexión partía de premisas verdaderas
(reglas de validez.
En el ejemplo más famoso, "Todos los humanos son mortales" y "Todos los griegos son humanos", se
llega a la conclusión válida de que "Todos los griegos son mortales". La ciencia es el resultado de
construir sistemas de razonamiento más complejos.
Metafísica
En su Metafísica, Aristóteles abogaba por la existencia de un ser divino, al que se describe como "Primer
Motor", responsable de la unidad y significación de la naturaleza. Dios, en su calidad de ser perfecto, es
por consiguiente el ejemplo al que aspiran todos los seres del mundo, ya que desean participar de la
perfección. Existen además otros motores, como son los motores inteligentes de los planetas y las
estrellas (Aristóteles sugería que el número de éstos era de "55 o 47").
Influencia
La filosofía de Aristóteles fue tomada con cierto recelo, en gran parte debido a la creencia de que sus
enseñanzas conducían a una visión materialista del mundo. la tradición filosófica fundamentada en la
adaptación que santo Tomás hacía del pensamiento aristotélico.
La influencia de la filosofía de Aristóteles ha sido general, contribuyendo incluso a determinar el lenguaje
moderno y el denominado sentido común, y su concepto del "Primer Motor" como causa final ha tenido un
importante papel dentro de la teología.
HERACLITO
Heráclito (c. 540-c. 475 a.C.aproximadamente) de Efeso en Asia Menor.
Nació en Éfeso, una antigua ciudad griega en Asia Menor, que ahora pertenece a Turquía. Debido a su
vida solitaria, y a la oscuridad y misantropía de su filosofía, es llamado algunas veces el oscuro.
En cierto sentido, Heráclito fue uno de los iniciadores de la metafísica griega, aunque sus ideas se
derivan de las de la escuela jónica de la filosofía griega.
Fue un filósofo griego, quien sostenía que el fuego era el origen primordial de la materia y que el mundo
entero se encontraba en un estado constante de cambio. El pensaba que precisamente los cambios
constantes eran los rasgos mas básicos de la naturaleza.
Parmenides era un filosofo muy importante que pensaba que todo lo que hay ha existido siempre, lo que
http://www.monografias.com/trabajos7/filo/filo.shtml (8 of 16)25/05/2005 13:47:29
SÓCRATES: - Monografias.com
era una idea muy corriente entre todos los griegos, daban por sentado que todo lo que existe en el mundo
es eterno y nada podía surgir de la nada, y algo que existe, tampoco se puede convertir en nada.
La teoría de Heráclito era totalmente contraria a la de Parmenides, Heráclito tenia más fe en lo que
decían sus sentidos que Parmenides.
Consideraba el fuego como la sustancia primordial o principio que, a través de la condensación y
rarefacción, crea los fenómenos del mundo sensible. Heráclito incorporó a la noción de "ser" de sus
predecesores el concepto de "devenir" o flujo, al que consideró una realidad básica subyacente a todas
las cosas, incluso a las más estables en apariencia. Para aclararlo, afirmaba que una persona no podía
bañarse dos veces en el mismo río.
Una persona no puede bañarse en el mismo río dos veces por que, el agua con que se baña la primera
vez no será la misma cuando lo haga por segunda vez, ya que todo esta en continuo movimiento y
cambio, entonces cuando desciendo al río por segunda vez, ni yo ni el río somos los mismos.
Heráclito también señalo el hecho de que el mundo esta caracterizado por constantes contradicciones.
Si no estuviéramos nunca enfermos, no entenderíamos lo que es estar sano. Si no tuviéramos nunca
hambre, no sabríamos apreciar estar saciados. Si no hubiera nunca guerra, no sabríamos valorar lo paz ,
y si no hubiera nunca invierno, no nos daríamos cuenta de la primavera.
Tanto el bien , como el mal, tienen un lugar necesario en el Todo y si no hubiera un constante juego entre
los contrastes, el mundo dejaria de existir .
Se puede apreciar notablemente como una pila funciona con un ánodo y un cátodo que son energía
negativa y positiva, ya que energías iguales se repelen y energías distintas se atraen.
En las relaciones de pareja se puede ver como hay armonía cuando uno es de mal genio y el otro no, ya
que debe haber un contraste algo asi como entre el negro y el blanco para que todo funcione bien.
"Dios es dia y noche, invierno y verano, guerra y paz, hambre y saciedad. Emplea la palabra Dios, como
algo divino, es algo que abarca todo el mundo. Dios se muestra precisamente en esa naturaleza llena de
contradicciones y en constante cambio.
En lugar de la palabra Dios emplea a menudo la palabra griega logos, que significa razon.
Heraclito opinaba que tiene que haber una especie de "razon universal" que dirige tdo lo que sucede en la
naturaleza. Esta razón universal es algo común para todos y por la cual todos tienen que guiarse . Y sin
embargo la mayoría vive según su propia razón.
En ética, Heráclito introdujo un nuevo énfasis social, manteniendo que la virtud consiste en la
subordinación del individuo a las leyes de una armonía razonable y universal. Aunque su pensamiento
estaba influido por la teología popular, atacó los conceptos y ceremonias de la religión popular de su
http://www.monografias.com/trabajos7/filo/filo.shtml (9 of 16)25/05/2005 13:47:29
SÓCRATES: - Monografias.com
tiempo.
ANAXIMENES
Anaxímenes (c. 570-500 a.C.), Fue un filósofo griego de la naturaleza, el último miembro de la escuela
jónica fundada por el filósofo Tales de Mileto. Nació en Mileto (Jonia), en Asia Menor. Anaxímenes
afirmaba que el aire es el elemento primario al que todas las demás cosas pueden ser reducidas.
Anaximenes opinaba que el origen de todo era el aire o la niebla.
Anaximenes conoció la teoría de Tales de Mileto ¿pero de donde viene el agua?, Anaxímenes opinaba
que el agua tenia que ser aire condensado, pues vemos como el agua surge del aire cuando llueve . Y
cuando el agua se condensa aun mas, se convierte en tierra.
Seguramente Anaxímenes había observado como la tierra y la arena provenían del hielo que sé derretía.
Asimismo pensaba que el fuego tenia que ser aire diluido, según Anaxímenes, tanto la tierra como el aire
y el fuego, tenían como origen el aire.
Para explicar cómo los objetos sólidos se forman a partir del aire, introdujo las nociones de condensación
y rarefacción. Estos procesos, afirmaba, transforman el aire, en sí mismo invisible, en entidades visibles —
como el agua, el fuego y las materias sólidas—. Pensaba que el aire se calienta y se vuelve fuego cuando
se rarifica y que se enfría y se vuelve sólido al condensarse.
No es largo el camino desde la tierra y el agua hasta las plantas en el campo, pensaba que para que
surgiera vida , tendría que haber tierra, aire, fuego, y agua. Pero el punto de partida en si eran el "aire o la
niebla" Esto significa que compartía con Tales la idea de que tiene que haber una materia primaria, que
constituye la base de todos los cambios que suceden en la naturaleza.
Hace parte de los tres filósofos de Mileto junto con Tales de Mileto y Anaximandro, que afirmaban que
"NADA PUEDE SURGIR DE LA NADA"
La importancia de Anaxímenes no radica en su cosmología sino en su intento de descubrir la naturaleza
última de la realidad.
ANAXIMANDRO
Anaximandro (c. 611-c. 547 a.C.),Fue un filósofo, matemático y astrónomo griego, que también vivió en
Mileto.
http://www.monografias.com/trabajos7/filo/filo.shtml (10 of 16)25/05/2005 13:47:29
SÓCRATES: - Monografias.com
Nació en Mileto (en la actual Turquía). Discípulo y amigo del filósofo griego Tales de Mileto, Anaximandro
está considerado el descubridor de la oblicuidad de la eclíptica, que es el ángulo que forman el plano de
la eclíptica y el plano del ecuador celeste. También se le considera introductor del reloj de sol en Grecia y
fundador de la cartografía.
La contribución más relevante de Anaximandro fue elaborar la más temprana obra en prosa con relación
al cosmos y los orígenes de la vida, por lo que también es mencionado como fundador de la cosmología.
Concebía el Universo como un número de cilindros concéntricos, de los cuales el más exterior es el Sol,
el del medio la Luna y el más interno contiene las estrellas. Dentro de estos cilindros está la Tierra, sin
base firme y en forma de bombo.
Anaximandro pensaba que nuestro mundo simplemente es uno de los muchos mundos que nacen y
parecen en algo que el llamo "lo indefinido"
No es fácil saber lo que el entendía por lo "lo indefinido", pero parece claro que no se imaginaba una
sustancia conocida, como Tales. Quizás fuera de la opinión de que aquello de lo que se ha creado todo,
precisamente tiene que ser distinto a lo creado.
En ese caso, la materia primaria no podía ser algo tan normal como el agua, sino algo "indefinido"
Anaximandro postulaba una teoría del origen del Universo que defendía que éste era el resultado de la
separación de opuestos desde la materia primaria. Así, el calor se movió hacia fuera, separándose de lo
frío y, después, lo hizo lo seco de lo húmedo. Además, Anaximandro sostenía que todas las cosas
vuelven con el tiempo al elemento que las originó.
PITÁGORAS
Pitágoras (c. 582-c. 500 a.C.), filósofo y matemático griego, cuyas doctrinas influyeron mucho en Platón.
http://www.monografias.com/trabajos7/filo/filo.shtml (11 of 16)25/05/2005 13:47:29
SÓCRATES: - Monografias.com
Nacido en la isla de Samos, Pitágoras fue instruido en las enseñanzas de los primeros filósofos jonios
Tales de Mileto, Anaximandro y Anaxímenes. Se dice que Pitágoras había sido condenado a exiliarse de
Samos por su aversión a la tiranía de Polícrates. Hacia el 530 a.C. se instaló en Crotona, una colonia
griega al sur de Italia, donde fundó un movimiento con propósitos religiosos, políticos y filosóficos,
conocido como pitagorismo. La filosofía de Pitágoras se conoce sólo a través de la obra de sus discípulos.
Doctrinas básicas
Los pitagóricos asumieron ciertos misterios, similares en muchos puntos a los enigmas del orfismo.
Aconsejaban la obediencia y el silencio, la abstinencia de consumir alimentos, la sencillez en el vestir y en
las posesiones, y el hábito del autoanálisis. Los pitagóricos creían en la inmortalidad y en la
transmigración del alma. Se dice que el propio Pitágoras proclamaba que él había sido Euphorbus, y
combatido durante la guerra de Troya, y que le había sido permitido traer a su vida terrenal la memoria de
todas sus existencias previas.
Teoría de los números
Entre las amplias investigaciones matemáticas realizadas por los pitagóricos se encuentran sus estudios
de los números pares e impares y de los números primos y de los cuadrados, esenciales en la teoría de
los números. Desde este punto de vista aritmético, cultivaron el concepto de número, que llegó a ser para
ellos el principio crucial de toda proporción, orden y armonía en el universo. A través de estos estudios,
establecieron una base científica para las matemáticas. En geometría el gran descubrimiento de la
escuela fue el teorema de la hipotenusa, conocido como teorema de Pitágoras, que establece que el
cuadrado de la hipotenusa de un triángulo rectángulo es igual a la suma de los cuadrados de los otros
dos lados.
Astronomía
La astronomía de los pitagóricos marcó un importante avance en el pensamiento científico clásico, ya que
fueron los primeros en considerar la tierra como un globo que gira junto a otros planetas alrededor de un
fuego central. Explicaron el orden armonioso de todas las cosas como cuerpos moviéndose de acuerdo a
un esquema numérico, en una esfera de la realidad sencilla y omnicomprensiva. Como los pitagóricos
pensaban que los cuerpos celestes estaban separados unos de otros por intervalos correspondientes a
longitudes de cuerdas armónicas, mantenían que el movimiento de las esferas da origen a un sonido
musical, la llamada armonía de las esferas.
LA EDAD MEDIA
La Edad media , es un término utilizado para referirse a un periodo de la historia europea que transcurrió
desde la desintegración del Imperio romano de Occidente, en el siglo V, hasta el siglo XV. No obstante,
las fechas anteriores no han de ser tomadas como referencias fijas: nunca ha existido una brusca ruptura
en el desarrollo cultural del continente. Parece que el término lo empleó por vez primera el historiador
Flavio Biondo de Forli, en su obra Historiarum ab inclinatione romanorun imperii decades (Décadas de
historia desde la decadencia del Imperio romano), publicada en 1438 aunque fue escrita treinta años
antes. El término implicó en su origen una parálisis del progreso, considerando que la edad media fue un
http://www.monografias.com/trabajos7/filo/filo.shtml (12 of 16)25/05/2005 13:47:29
SÓCRATES: - Monografias.com
periodo de estancamiento cultural, ubicado cronológicamente entre la gloria de la antigüedad clásica y el
renacimiento. La investigación actual tiende, no obstante, a reconocer este periodo como uno más de los
que constituyen la evolución histórica europea, con sus propios procesos críticos y de desarrollo.
En la edad media fue cuando empezo a configurarse el sistema escolar, en el trancurso de la edad media
se fueron desarrolando tambien las diferentes naciones , con ciudades y castillos, musica y poesia
populares.
Dentro del ámbito cultural, hubo un resurgimiento intelectual al prosperar nuevas instituciones educativas
como las escuelas catedralicias y monásticas. Se fundaron las primeras universidades, se ofertaron
graduaciones superiores en medicina, derecho y teología, ámbitos en los que fue intensa la investigación:
se recuperaron y tradujeron escritos médicos de la antigüedad, muchos de los cuales habían sobrevivido
gracias a los eruditos árabes y se sistematizó, comentó e investigó la evolución tanto del Derecho
canónico como del civil, especialmente en la famosa Universidad de Bolonia. Esta labor tuvo gran
influencia en el desarrollo de nuevas metodologías que fructificarían en todos los campos de estudio. El
escolasticismo se popularizó, se estudiaron los escritos de la Iglesia, se analizaron las doctrinas
teológicas y las prácticas religiosas y se discutieron las cuestiones problemáticas de la tradición cristiana.
El siglo XII, por tanto, dio paso a una época dorada de la filosofía en Occidente.
En el año 529, la iglesia cerro la academia de Platon en Atenas, en este mismo año se fundo la orden
religiosa, en conclusión la iglesia cristiana puso una tapadera encima de la filosofia griega, a partir de
entonces los conventos tuvieron el monopolio de la enseñanza, la reflexion y la contemplación.
La edad media tuvo una duración de 1000 años, en donde los primeros 400 fueron verdaderamente años
de decadencia cultural, se desintegro la cultura romana.
Igualmente la economia en especie, paso a la econonia del intercambio, apartir de ahora la economia se
caracterizaba por el feudalismo.
El Feudalismo, es sistema contractual de relaciones políticas y militares entre los miembros de la nobleza
de Europa occidental durante la alta edad media. El feudalismo se caracterizó por la concesión de feudos
(casi siempre en forma de tierras y trabajo) a cambio de una prestación política y militar, contrato sellado
por un juramento de homenaje y fidelidad. Pero tanto el señor como el vasallo eran hombres libres, por lo
que no debe ser confundido con el régimen señorial, sistema contemporáneo de aquél, que regulaba las
relaciones entre los señores y sus campesinos.
Durante la edad media los árabes fueron los más importantes en ciencias tales como las matemáticas,
química, astronomía o medicina. Incluso hoy en día seguimos utilizando los números arábigos.
Durante la edad media la filosofía se dividió en tres corrientes distintas para volver a juntarse luego otra
vez.
Los filósofos de la edad media dieron mas o menos por sentado que el cristianismo era lo verdadero,
http://www.monografias.com/trabajos7/filo/filo.shtml (13 of 16)25/05/2005 13:47:29
SÓCRATES: - Monografias.com
La cuestión era si había que creer en los milagros cristianos o si también era posible acercarse a las
verdades cristianas mediante la razón. ¿Qué relación había entre los filósofos griegos y lo que decía la
Biblia ¿ Casi toda la filosofía medieval verso sobre esta única pregunta.
Durante la edad media no hubo ninguna ruptura traumatica con la filosofia griega, aunque fue una edad
media cristiana.
Gran parte de la filosofia griega fue llevada a la nueva epoca a través de los Padres de la Iglesia como
San Agustín de Hipona.
SAN AGUSTÍN DE HIPONA
San Agustín que vivio del 354 al 430, Fue el más grande de los padres de la Iglesia y uno de los más
eminentes dores de la Iglesia occidental. Agustín nació el 13 de noviembre del año 354 en la pequeña
ciudad de Tagaste,en el norte de África, Numidia (hoy Souk-Ahras, Argelia). Su padre, Patricio (fallecido
hacia el año 371), era un pagano (más tarde convertido al cristianismo), pero su madre, Mónica, era una
devota cristiana que dedicó toda su vida a la conversión de su hijo, siendo canonizada por la Iglesia
católica romana.
Ya con dieciséis años se fue a estudiar a Cartago. Mas tarde viajo a Roma y a Milan, y vivio sus ultimos
años como obispo en la ciudad de Hipona, situada a unas millas al Oeste de Cartago.
Sin embargo no no fue cristiano toda su vida Agustín se educó como retórico en las ciudades
norteafricanas de Tagaste, Madaura y Cartago. San Agustín paso por muchas religiones y corrientes
filosoficas antes de convertirse al cristianismo.
Contienda intelectual
http://www.monografias.com/trabajos7/filo/filo.shtml (14 of 16)25/05/2005 13:47:29
SÓCRATES: - Monografias.com
Durante nueve años, del año 373 al 382, se adhirió al maniqueísmo, filosofía dualista de Persia muy
extendida en aquella época por el Imperio Romano de Occidente. Con su principio fundamental de
conflicto entre el bien y el mal, el maniqueísmo le pareció a Agustín una doctrina que podía corresponder
a la experiencia y proporcionar las hipótesis más adecuadas sobre las que construir un sistema filosófico
y ético.
Los maniqueos eran una secta religiosa muy tipica de la Antigüedad tardia . Era una doctrina de salvación
mitad religiosa, mitad filosofica.
La idea era que le mundo esta dividido en bien y mal, en luz y oscuridad, espiritu y materia. Con su
espiritu las personas podian elevarse por encima del mundo de la materia y asi poner las bases para la
salvación del alma
Desilusionado por la imposibilidad de reconciliar ciertos principios maniqueístas contradictorios, Agustín
abandonó esta doctrina y dirigió su atención hacia el escepticismo.
Hacia el año 383 se trasladó de Cartago a Roma, pero un año más tarde fue enviado a Milán como
catedrático de retórica. Aquí se movió bajo la órbita del neoplatonismo y conoció también al obispo de la
ciudad, san Ambrosio, el eclesiástico más distinguido de Italia en aquel momento. Es entonces cuando
Agustín se sintió atraído de nuevo por el cristianismo. Un día por fin, según su propio relato, creyó
escuchar una voz, como la de un niño, que repetía: "Toma y lee". Interpretó esto como una exhortación
divina a leer las Escrituras y leyó el primer pasaje que apareció al azar: "…
El opinaba que era cien por ciento cristiano, pero no veía ninguna distinción entre el cristianismo y la
filosofía de Platón.
El cristianismo también es un misterio divino al que solo nos podemos acercar a través de la fe. Pero si
creemos en el cristianismo, Dios "iluminara" nuestra alma para que consigamos unos conocimientos
sobrenaturales de Dios.
San Agustín pensaba que Dios creo el mundo de la nada, antes de crear Dios el mundo, las ideas
existian en los pensamientos de Dios, de esta manera incorporo las ideas platónicas en Dios.
Opinaba como Plotino, que el mal es la "ausencia de Dios" .El mal no tiene una existencia propia, es algo
que no es, porque la creación de Dios es en realidad solo buena.
"La buena voluntad es obra de Dios, la mala voluntad es desviarse de la obra de Dios.
San Agustín dice que hay un abismo infranqueable entre Dios y el mundo, subraya que el ser humano es
un ser espiritual, tiene un cuerpo material, que pertenece al mundo fisico donde la polilla y el oxido
corroen, pero también tiene un alma que puede reconocer a Dios.
Según San Agustín toda la humanidad entro en perdición después del pecado original, y sin embargo
http://www.monografias.com/trabajos7/filo/filo.shtml (15 of 16)25/05/2005 13:47:29
SÓCRATES: - Monografias.com
Dios ha determinado que algunos seres humanos serán salvados de la perdición eterna, pero dice que
ninguna persona merece la salvación de Dios.
Trabajo enviado por:
INGRID ZAMORANO
[email protected]
Volver al inicio | Volver arriba
Términos y Condiciones - Haga Publicidad en Monografias.com - Contáctenos
© 1997 Lucas Morea / Sinexi S.A.
http://www.monografias.com/trabajos7/filo/filo.shtml (16 of 16)25/05/2005 13:47:29
Qué es la electrónica? - Monografias.com
Regístrese
Compare
precios
Nuevos
Consulte
a los
expertos
Buscar:
Publicar
Toolbar
Foros
Ayuda
Recomendar
Buscar
Recomendamos:
Barra de
herramientas
gratuita
Avanzada
Agregar a Recomendar
favoritos
Imprimir
Bajar
Trabajo
(Descargar)
¿Que es la electrónica?
Indice
1. Introducción
2. Antecedentes históricos
3. Componentes electrónicos
4. Circuitos electrónicos de uso frecuente
5. Amplificadores de sonido
6. Circuitos Lógicos
7. Avances recientes
1. Introducción
La electrónica es el campo de la ingeniería y de la física aplicada relativo al diseño y aplicación de
dispositivos, por lo general circuitos electrónicos, cuyo funcionamiento depende del flujo de electrones
para la generación, transmisión, recepción, almacenamiento de información, entre otros. Esta información
puede consistir en voz o música como en un receptor de radio, en una imagen en una pantalla de
televisión, o en números u otros datos en un ordenador o computadora.
Los circuitos electrónicos ofrecen diferentes funciones para procesar esta información, incluyendo la
amplificación de señales débiles hasta un nivel que se pueda utilizar; el generar ondas de radio; la
extracción de información, como por ejemplo la recuperación de la señal de sonido de una onda de radio
(demodulación); el control, como en el caso de introducir una señal de sonido a ondas de radio
(modulación), y operaciones lógicas, como los procesos electrónicos que tienen lugar en las
http://www.monografias.com/trabajos5/electro/electro.shtml (1 of 9)25/05/2005 13:47:41
Qué es la electrónica? - Monografias.com
computadoras.
2. Antecedentes históricos
La introducción de los tubos de vacío a comienzos del siglo XX propició el rápido crecimiento de la
electrónica moderna. Con estos dispositivos se hizo posible la manipulación de señales, algo que no
podía realizarse en los antiguos circuitos telegráficos y telefónicos, ni con los primeros transmisores que
utilizaban chispas de alta tensión para generar ondas de radio. Por ejemplo, con los tubos de vacío
pudieron amplificarse las señales de radio y de sonido débiles, y además podían superponerse señales
de sonido a las ondas de radio. El desarrollo de una amplia variedad de tubos, diseñados para funciones
especializadas, posibilitó el rápido avance de la tecnología de comunicación radial antes de la II Guerra
Mundial, y el desarrollo de las primeras computadoras, durante la guerra y poco después de ella.
Hoy día, el transistor, inventado en 1948, ha reemplazado casi completamente al tubo de vacío en la
mayoría de sus aplicaciones. Al incorporar un conjunto de materiales semiconductores y contactos
eléctricos, el transistor permite las mismas funciones que el tubo de vacío, pero con un coste, peso y
potencia más bajos, y una mayor fiabilidad. Los progresos subsiguientes en la tecnología de
semiconductores, atribuible en parte a la intensidad de las investigaciones asociadas con la iniciativa de
exploración del espacio, llevó al desarrollo, en la década de 1970, del circuito integrado. Estos
dispositivos pueden contener centenares de miles de transistores en un pequeño trozo de material,
permitiendo la construcción de circuitos electrónicos complejos, como los de los microordenadores o
microcomputadoras, equipos de sonido y vídeo, y satélites de comunicaciones.
3. Componentes electrónicos
Los circuitos electrónicos constan de componentes electrónicos interconectados. Estos ponentes se
clasifican en dos categorías: activos o pasivos. Entre los pasivos se incluyen las resistencias, los
condensadores y las bobinas. Los considerados activos incluyen las baterías (o pilas), los generadores,
los tubos de vacío y los transistores.
Tubos de vacío
Un tubo de vacío consiste en una cápsula de vidrio de la que se ha extraído el aire, y que lleva en su
interior varios electrodos metálicos. Un tubo sencillo de dos elementos (diodo) está formado por un
cátodo y un ánodo, este último conectado al terminal positivo de una fuente de alimentación. El cátodo
(un pequeño tubo metálico que se calienta mediante un filamento) libera electrones que migran hacia él
(un cilindro metálico en torno al cátodo, también llamado placa). Si se aplica una tensión alterna al ánodo,
los electrones sólo fluirán hacia el ánodo durante el semiciclo positivo; durante el ciclo negativo de la
tensión alterna, el ánodo repele los electrones, impidiendo que cualquier corriente pase a través del tubo.
Los diodos conectados de tal manera que sólo permiten los semiciclos positivos de una corriente alterna
(CA) se denominan tubos rectificadores y se emplean en la conversión de corriente alterna a corriente
continua (CC) .Al insertar una rejilla, formada por un hilo metálico en espiral, entre el cátodo y el ánodo, y
aplicando una tensión negativa a dicha rejilla, es posible controlar el flujo de electrones. Si la rejilla es
negativa, los repele y sólo una pequeña fracción de los electrones emitidos por el cátodo pueden llegar al
http://www.monografias.com/trabajos5/electro/electro.shtml (2 of 9)25/05/2005 13:47:41
Qué es la electrónica? - Monografias.com
ánodo. Este tipo de tubo, denominado triodo, puede utilizarse como amplificador. Las pequeñas
variaciones de la tensión que se producen en la rejilla, como las generadas por una señal de radio o de
sonido, pueden provocar grandes variaciones en el flujo de electrones desde el cátodo hacia el ánodo y,
en consecuencia, en el sistema de circuitos conectado al ánodo.
Transistores
Los transistores se componen de semiconductores. Se trata de
materiales, como el silicio o el germanio, dopados (s decir, se les
han incrustado pequeñas cantidades de materias extrañas con
reacciones químicas), de manera que se produce una abundancia
o unacarencia de electrones libres. En el primer caso, se dice que
el semiconductor es del tipo n, y en el segundo que es del tipo p.
Combinando materiales del tipo n y del tipo p puede producirse un
diodo. Cuando éste se conecta a una batería de manera tal que el
material tipo p es positivo y el material tipo n es negativo, los
electrones son repelidos desde el terminal negativo de la batería y
pasan, sin ningún obstáculo, a la región p, que carece de
electrones. Con la batería invertida, los electrones que llegan al material p pueden pasar sólo con muchas
dificultades hacia el material n, que ya está lleno de electrones libres, en cuyo caso la corriente es casi
cero.
El transistor bipolar fue inventado
en 1948 para sustituir al tubo de
vacío triodo. Está formado por tres
capas de material dopado, que
forman dos uniones pn (bipolares)
con configuraciones pnp o npn.
Una unión está conectada a la
batería para permitir el flujo de
corriente (polarización negativa
frontal, o polarización directa), y la
otra está conectada a una batería
en sentido contrario (polarización
inversa). Si se varía la corriente en
la unión de polarización directa
mediante la adición de una señal,
la corriente de la unión de
polarización inversa del transistor
variará en consecuencia. El
principio puede utilizarse para
construir amplificadores en los que
una pequeña señal aplicada a la
unión de polarización directa
provocará un gran cambio en la
corriente de la unión de
polarización inversa.
http://www.monografias.com/trabajos5/electro/electro.shtml (3 of 9)25/05/2005 13:47:41
Qué es la electrónica? - Monografias.com
Otro tipo de transistor es el de efecto de campo (FET, acrónimo inglés de Field-Effect Transistor), que
funciona sobre la base del principio de repulsión o de atracción de cargas debido a la superposición de un
campo eléctrico. La amplificación de la corriente se consigue de manera similar al empleado en el control
de rejilla de un tubo de vacío. Los transistores de efecto de campo funcionan de forma más eficaz que los
bipolares, ya que es posible controlar una señal grande con una cantidad de energía muy pequeña.
Circuitos integrados
La mayoría de los circuitos integrados son pequeños trozos, o chips, de silicio, de entre 2 y 4 mm2, sobre
los que se fabrican los transistores. La fotolitografía permite al diseñador crear centenares de miles de
transistores en un solo chip situando de forma adecuada las numerosas regiones tipo n y p. Durante la
fabricación, estas regiones son interconectadas mediante conductores minúsculos, a fin de producir
circuitos especializados complejos. Estos circuitos integrados son llamados monolíticos por estar
fabricados sobre un único cristal de silicio. Los chips requieren mucho menos espacio y potencia, y su
fabricación es más barata que la de un circuito equivalente compuesto por transistores individuales.
Resistencias
Al conectar una batería a un material conductor, una determinada cantidad de corriente fluirá a través de
dicho material. Esta corriente depende de la tensión de la batería, de las dimensiones de la muestra y de
la conductividad del propio material. Las resistencia se emplean para controlar la corriente en los circuitos
electrónicos. Se elaboran con mezclas de carbono, láminas metálicas o hilo de resistencia, y disponen de
dos cables de conexión. A las resistencias variables se le llaman reóstatos o potenciometros, con un
brazo de contacto deslizante y ajustable, suelen utilizarse para controlar el volumen de radios y
televisiones.
Condensadores
Los condensadores están formados por dos placas metálicas separadas por un
material aislante.
Si se conecta una
batería a ambas placas, durante un breve tiempo fluirá una corriente eléctrica que se
acumulará en cada una de ellas. Si se desconecta la batería, el condensador
conserva la carga y la tensión asociada a la misma. Las tensiones rápidamente
cambiantes, como las provocadas por una señal de sonido o de radio, generan
mayores flujos de corriente hacia y desde las placas; entonces, el condensador actúa como conductor de
la corriente alterna. Este efecto puede utilizarse, por ejemplo, para separar una señal de sonido o de radio
de una corriente continua, a fin de conectar la salida de una fase de amplificación a la entrada de la
siguiente.
http://www.monografias.com/trabajos5/electro/electro.shtml (4 of 9)25/05/2005 13:47:41
Qué es la electrónica? - Monografias.com
Bobinas
Las bobinas (también llamadas inductores) consisten en un hilo conductor enrollado. Al pasar una
corriente a través de la bobina, alrededor de la misma se crea un campo magnético que tiende a
oponerse a los cambios bruscos de la intensidad de la corriente. Al igual que un condensador, una bobina
puede utilizarse para diferenciar entre señales rápida y lentamente cambiantes (altas y bajas
frecuencias). Al utilizar una bobina conjuntamente con un condensador, la tensión de la bobina alcanza
un valor máximo a una frecuencia específica que depende de la capacitancia y de la inductancia. Este
principio se emplea en los receptores de radio al seleccionar una frecuencia específica mediante un
condensador variable.
Dispositivos de detección y transductores
La medición de magnitudes mecánicas, térmicas, eléctricas y químicas se realiza empleando dispositivos
denominados sensores y transductores. El sensor es sensible a los cambios de la magnitud a medir,
como una temperatura, una posición o una concentración química. El transductor convierte estas
mediciones en señales eléctricas, que pueden alimentar a instrumentos de lectura, registro o control de
las magnitudes medidas. Los sensores y transductores pueden funcionar en ubicaciones alejadas del
observador, así como en entornos inadecuados o impracticables para los seres humanos.
Algunos dispositivos actúan de forma simultánea como sensor y transductor. Un termopar consta de dos
uniones de diferentes metales que generan una pequeña tensión que depende del diferencial término
entre las uniones. El termistor es una resistencia especial, cuyo valor de resistencia varía según la
temperatura. Un reóstato variable puede convertir el movimiento mecánico en señal eléctrica. Para medir
distancias se emplean condensadores de diseño especial, y para detectar la luz se utilizan fotocélulas.
Para medir velocidades, aceleración o flujos de líquidos se recurre a otro tipo de dispositivos. En la
mayoría de los casos, la señal eléctrica es débil y debe ser amplificada por un circuito electrónico.
4. Circuitos electrónicos de uso frecuente
Circuitos de alimentación eléctrica (Fuentes)
La mayoría de los equipos electrónicos requieren tensiones de CC para su funcionamiento. Estas
tensiones pueden ser suministradas por baterías o por fuentes de alimentación internas que convierten la
corriente alterna, que puede obtenerse de la red eléctrica que llega a cada vivienda, en tensiones
reguladas de CC. El primer elemento de una fuente de alimentación de CC interna es el transformador,
que eleva o disminuye la tensión de entrada a un nivel adecuado para el funcionamiento del equipo. La
función secundaria del transformador es servir como aislamiento de masa (conexión a tierra) eléctrica del
dispositivo a fin de reducir posibles peligros de electrocución. A continuación del transformador se sitúa
un rectificador, que suele ser un diodo. En el pasado se utilizaban diodos de vacío y una amplia variedad
de diferentes materiales (cristales de germanio o sulfato de cadmio) en los rectificadores de baja potencia
empleados en los equipos electrónicos. En la actualidad se emplean casi exclusivamente rectificadores
de silicio debido a su bajo coste y alta fiabilidad.
http://www.monografias.com/trabajos5/electro/electro.shtml (5 of 9)25/05/2005 13:47:41
Qué es la electrónica? - Monografias.com
Las fluctuaciones y ondulaciones superpuestas a la tensión de CC rectificada (percibidas como un
zumbido en los amplificadores de sonido defectuosos) pueden filtrarse mediante un condensador. Cuanto
más grande sea el condensador, menor será el nivel de fluctuación de la tensión. Es posible alcanzar un
control más exacto sobre los niveles y fluctuaciones de tensión mediante un regulador de tensión, que
también consigue que las tensiones internas sean independientes de las fluctuaciones que puedan
encontrarse en un artefacto eléctrico. Un sencillo regulador de tensión que se utiliza a menudo es el diodo
de Zener, formado por un diodo de unión pn de estado sólido que actúa como aislante hasta una tensión
predeterminada. Por encima de dicha tensión, se convierte en un conductor que deriva los excesos de
tensión. Por lo general, los reguladores de tensión más sofisticados se construyen como circuitos
integrados.
Circuitos amplificadores
Los amplificadores electrónicos se utilizan sobre todo para aumentar la tensión, la corriente o la potencia
de una señal. Los amplificadores lineales incrementan la señal sin distorsionarla (o distorsionándola
mínimamente), de manera que la salida es proporcional a la entrada. Los amplificadores no lineales
permiten generar un cambio considerable en la forma de onda de la señal. Los amplificadores lineales se
utilizan para señales de sonido y vídeo, mientras que los no lineales se emplean en osciladores,
dispositivos electrónicos de alimentación, moduladores, mezcladores, circuitos lógicos y demás
aplicaciones en las que se requiere una reducción de la amplitud. Aunque los tubos de vacío tuvieron
gran importancia en los amplificadores, hoy día suelen utilizarse circuitos de transistores discretos o
circuitos integrados.
5. Amplificadores de sonido
Los amplificadores de sonido, de uso común en radios, televisiones y grabadoras de cintas, suelen
funcionar a frecuencias entre 2 y 20 kiloherz (1 kHz = 1.000 ciclos por segundo). Amplifican la señal
eléctrica que, a continuación, se convierte en sonido con un altavoz. Los amplificadores operativos,
incorporados en circuitos integrados y formados por amplificadores lineales multifásicos acoplados a la
corriente continua, son muy populares como amplificadores de sonido.
Amplificadores de vídeo
Los amplificadores de vídeo se utilizan principalmente para señales con un rango de frecuencias de hasta
6 megaherz (1 MHz = 1 millón de ciclos por segundo). La señal generada por el amplificador se convierte
en la información visual por ejemplo la que aparece en la pantalla de televisión, y la amplitud de señal
regula el brillo de los puntos que forman la imagen. Para realizar esta función, un amplificador de vídeo
debe funcionar en una banda ancha y amplificar de igual manera todas las señales, con baja distorsión.
Amplificadores de radiofrecuencia
Estos amplificadores aumentan el nivel de señal de los sistemas de comunicaciones
de radio o televisión. Por lo general, sus frecuencias
van desde 100 kHz hasta 1 gigaherz (1 GHz = 1.000
http://www.monografias.com/trabajos5/electro/electro.shtml (6 of 9)25/05/2005 13:47:41
Qué es la electrónica? - Monografias.com
millones de ciclos por segundo), y pueden llegar
incluso al rango de frecuencias de microondas.
Osciladores
Los osciladores constan de un amplificador y de
algún tipo de realimentación: la señal de salida se
reconduce a la entrada del amplificador. Los
elementos determinantes de la frecuencia pueden ser
un circuito de inductancia-capacitancia sintonizado o
un cristal vibrador. Los osciladores controlados por
cristal ofrecen mayor precisión y estabilidad. Los
osciladores se emplean para producir señales de
sonido y de radio en una amplia variedad de usos.
Por ejemplo, los osciladores sencillos de
radiofrecuencia se emplean en los modernos
teléfonos de teclas para transmitir datos a la estación
telefónica central al marcar un número. Los tonos de
sonido generados por los osciladores también
pueden encontrarse en relojes despertadores, radios,
instrumentos electrónicos, computadoras y sistemas de alarma. Los osciladores de alta frecuencia se
emplean en equipos de comunicaciones para controlar las funciones de sintonización y detección de
señales. Las emisoras de radio y de televisión utilizan osciladores de alta frecuencia y de gran precisión
para generar las frecuencias de transmisión.
6. Circuitos Lógicos
Los circuitos de conmutación y temporización, o circuitos lógicos, forman la base de cualquier dispositivo
en el que se tengan que seleccionar o combinar señales de manera controlada. Entre los campos de
aplicación de estos tipos de circuitos pueden mencionarse la conmutación telefónica, las transmisiones
por satélite y el funcionamiento de las computadoras digitales.
La lógica digital es un proceso racional
para adoptar sencillas decisiones de
'verdadero' o 'falso' basadas en las
reglas del álgebra de Boole. El estado
verdadero se representado por un 1, y
falso por un 0, y en los circuitos lógicos
estos numerales aparecen como
señales de dos tensiones diferentes.
Los circuitos lógicos se utilizan para
adoptar decisiones específicas de
'verdadero-falso' sobre la base de la
presencia de múltiples señales
'verdadero-falso' en las entradas. Las
señales se pueden generar por
http://www.monografias.com/trabajos5/electro/electro.shtml (7 of 9)25/05/2005 13:47:41
Qué es la electrónica? - Monografias.com
conmutadores mecánicos o por
transductores de estado sólido. La señal de entrada, una vez aceptada y acondicionada (para eliminar las
señales eléctricas indeseadas, o ruidos), es procesada por los circuitos lógicos digitales. Las diversas
familias de dispositivos lógicos digitales, por lo general circuitos integrados, ejecutan una variedad de
funciones lógicas a través de las llamadas puertas lógicas, como las puertas OR, AND y NOT y
combinaciones de las mismas (como 'NOR', que incluye a OR y a NOT). Otra familia lógica muy utilizada
es la lógica transistor-transistor. También se emplea la lógica de semiconductor complementario de óxido
metálico, que ejecuta funciones similares a niveles de potencia muy bajos pero a velocidades de
funcionamiento ligeramente inferiores. Existen también muchas otras variedades de circuitos lógicos,
incluyendo la hoy obsoleta lógica reóstato-transistor y la lógica de acoplamiento por emisor, utilizada para
sistemas de muy altas velocidades.
Los bloques elementales de un
dispositivo lógico se denominan puertas
lógicas digitales. Una puerta Y (AND)
tiene dos o más entradas y una única
salida. La salida de una puerta Y es
verdadera sólo si todas las entradas
son verdaderas. Una puerta O (OR)
tiene dos o más entradas y una sola
salida. La salida de una puerta O es
verdadera si cualquiera de las entradas
es verdadera, y es falsa si todas las
entradas son falsas. Una puerta
INVERSORA (INVERTER) tiene una
única entrada y una única salida, y
puede convertir una señal verdadera en falsa, efectuando de esta manera la función negación (NOT). A
partir de las puertas elementales pueden construirse circuitos lógicos más complicados, entre los que
pueden mencionarse los circuitos biestables (también llamados flip-flops, que son interruptores binarios),
contadores, comparadores, sumadores y combinaciones más complejas.
En general, para ejecutar una determinada función es necesario conectar grandes cantidades de
elementos lógicos en circuitos complejos. En algunos casos se utilizan microprocesadores para efectuar
muchas de las funciones de conmutación y temporización de los elementos lógicos individuales. Los
procesadores están específicamente programados con instrucciones individuales para ejecutar una
determinada tarea o tareas. Una de las ventajas de los microprocesadores es que permiten realizar
diferentes funciones lógicas, dependiendo de las instrucciones de programación almacenadas. La
desventaja de los microprocesadores es que normalmente funcionan de manera secuencial, lo que podría
resultar demasiado lento para algunas aplicaciones. En tales casos se emplean circuitos lógicos
especialmente diseñados.
7. Avances recientes
El desarrollo de los circuitos integrados ha revolucionado los campos de las comunicaciones, la gestión
de la información y la informática. Los circuitos integrados han permitido reducir el tamaño de los
dispositivos con el consiguiente descenso de los costes de fabricación y de mantenimiento de los
http://www.monografias.com/trabajos5/electro/electro.shtml (8 of 9)25/05/2005 13:47:41
Qué es la electrónica? - Monografias.com
sistemas. Al mismo tiempo, ofrecen mayor velocidad y fiabilidad. Los relojes digitales, las computadoras
portátiles y los juegos electrónicos son sistemas basados en microprocesadores. Otro avance importante
es la digitalización de las señales de sonido, proceso en el cual la frecuencia y la amplitud de una señal
de sonido se codifica digitalmente mediante técnicas de muestreo adecuadas, es decir, técnicas para
medir la amplitud de la señal a intervalos muy cortos. La música grabada de forma digital, como la de los
discos compactos, se caracteriza por una fidelidad que no era posible alcanzar con los métodos de
grabación directa.
La electrónica médica a llegado hasta a sistemas que pueden diferenciar aún más los órganos del cuerpo
humano. Se han desarrollado asimismo dispositivos que permiten ver los vasos sanguíneos y el sistema
respiratorio. También la alta definición promete sustituir a numerosos procesos fotográficos al eliminar la
necesidad de utilizar plata.
La investigación actual dirigida a aumentar la velocidad y capacidad de las computadoras se centra sobre
todo en la mejora de la tecnología de los circuitos integrados y en el desarrollo de componentes de
conmutación aún más rápidos. Se han construido circuitos integrados a gran escala que contienen varios
centenares de miles de componentes en un solo chip. Han llegado a fabricarse computadoras que
alcanzan altísimas velocidades en las cuales los semiconductores son reemplazados por circuitos
superconductores que utilizan las uniones de Josephson y que funcionan a temperaturas cercanas al cero
absoluto.
Trabajo enviado por:
codetel
[email protected]
Volver al inicio | Volver arriba
Términos y Condiciones - Haga Publicidad en Monografias.com - Contáctenos
© 1997 Lucas Morea / Sinexi S.A.
http://www.monografias.com/trabajos5/electro/electro.shtml (9 of 9)25/05/2005 13:47:41
Termodinámica- Monografias.com
Regístrese
Compare
precios
Buscar:
Nuevos
Consulte
a los
expertos
Publicar
Toolbar
Foros
Ayuda
Recomendar
Buscar
Recomendamos:
Barra de
herramientas
gratuita
Avanzada
Agregar a Recomendar
favoritos
Imprimir
Bajar
Trabajo
(Descargar)
Termodinámica
Indice
1. Introduccion
2. Leyes
3. Entropía.
4. Calor y Temperatura
5. Escalas de medición de la temperatura
6. Teoría cinética de los gases.
7. Leyes de los gases
8. Presión atmosferica en relación al medio ambiente.
1. Introduccion
Energía calorífica: La suma de la energía potencial y de la energía sintética de un sistema no permanece
siempre constante.
De una manera general, la energía mecánica total de un sistema disminuye con el frotamiento y los
choques. Si por ejemplo, se frena un cuerpo durante su caída por un plano inclinado, de forma que su
velocidad permanezca constante, se producirá una disminución de su energía potencial sin que aumente
su energía cinética. Pero, en todos los fenómenos de esta naturaleza se produce calor. Así el fósforo de
las cerillas se inflama por frotamiento, las herramientas se calientan al labrar los metales, etc. Sí una bala
de plomo se dispara contra una placa de acero, se puede alcanzar, en el momento del choque, una
temperatura superior a su punto de fusión. El calor debe, por consiguiente, considerarse como una forma
de energía, hipótesis que se ve corroborada por la posibilidad de producir trabajo mecánico consumiendo
calor, por ejemplo, en las maquinas de calor.
Otras formas de energía: eléctrica. La corriente eléctrica es uno de los numerosos fenómenos que
pueden producir trabajo mecánico o calor. La primera transformación se realiza en los motores y la
inversa de los generadores electromagnéticos de corriente (dínamos, alternadores). En todos los
conductores por los que pasan una corriente hay una producción de calor, conocida con el nombre de
efecto de joule; la transformación contraria directa, es decir de calor en electricidad, se observa en las
http://www.monografias.com/trabajos13/termodi/termodi.shtml (1 of 16)25/05/2005 13:47:53
Termodinámica- Monografias.com
pilas termoeléctricas y basta calentar una de las dos soldaduras de dos metales diferentes que forman
parte de un circuito para que se engendre en el mismo una corriente. De ellos se deduce que existe
energía eléctrica y que el paso de una corriente es en realidad un transporte de energía a lo largo de un
circuito.
Un condensador cargado de corriente también energía eléctrica, puesto a descargarse es capaz de
producir una corriente, pero esta energía es potencial.
Química: Las reacciones químicas tienen lugar con absorción o desprendimiento de calor, según los
casos. La combustión, que es la combinación del oxígeno del cuerpo combustible o con los elementos
que lo integran, revelan que una muestra de carbón y oxigeno contiene energía química potencial, que
puede utlizarse al iniciar la combustión o la combinación de ambos cuerpos.
La energía química se emplea a si mismo en las pilas y acumuladores eléctricos, que la transforman en
energía eléctrica, y el fenómeno inverso se produce en la electrólisis, en particular al cargar los
acumuladores.
Las explosiones son un ejemplo de transformación de energía química en trabajo mecánico.
Radiante: La luz se produce de diversas formas, pero la más corriente de éstas consiste en calentar
cuerpos a una temperatura bastante elevada (lámpara de gas, Lámpara eléctrica de incandescencia). La
incandescencia es precisamente la transformación de energía calorífica en energía radiante.
En los fenómenos de luminiscencia, o emisión de luz en frío, interviene otra forma de energía que es
mecánica en el caso de la triboluminiscencia. La ruptura de ciertos cristales que se producen por ejemplo
al machacar azúcar provocan la aparición de luz. En la electroluminiscencia, la energía eléctrica se
transforma directamente en luz sin que pase por la forma calorífica intermedia. Así acorde en los tubos de
gas rarificado como el neón y los vapores de sodio y mercurio. En la quimil luminiscencia, algunas
reacciones químicas, como la oxidación lenta del fósforo blanco en contacto del aire, provocan emisión de
luz, sin calentamiento apreciable. La luz emitida por las luciérnagas se debe a un fenómeno análogo,
puesto que produce de las reacciones químicas que se producen durante la digestión.
La energía radiante puede convertirse en cualquiera de las otras cuatro formas de energías que se han
considerado. Así, cuando una sustancia absorbe radiaciones, se calienta y este efecto calorifico es
particularmente intenso en el caso de las radiaciones infrarrojas. Por otra parte, los haces luminosos
dirigidos hacia los cuerpos ejercen en estos una fuerza de empuje que produce efectos mecánicos y
recibe el nombre de presión de radiación, fenómenos que explica la repulsión de la cola de cometas por
los rayos solares. La transformación de energía luminosa en energía eléctrica tiene lugar en la
fotoelectricidad al captárselos electrones que emiten algunos metales cuando recibe la luz. Este
fenómeno ha dado lugar a innumerables aplicaciones practicas, entre las cuales pueden mencionarse el
cine sonoro y la televisión.
Las modificaciones químicas sufridas por los cuerpos bajo la influencia de la luz son numerosas y
constituyen el objeto de la ciencia denominada fotoquímica, que estudia la transformación de la energía
luminosa en energía química. Las plantas realizan esta transformación gracias a la clorofila, que absorbe
las radiaciones solares, y la energía así almacenada se emplea para sintetizar los alimentos
hidrocarbonados.
2. Leyes
Primera ley de la termodinámica
Permítase que un sistema cambie de un estado inicial de equilibrio a un estado final de equilibrio, en un
camino determinado, siendo el calor absorbido por el sistema y el trabajo hecho por el sistema. Después
http://www.monografias.com/trabajos13/termodi/termodi.shtml (2 of 16)25/05/2005 13:47:53
Termodinámica- Monografias.com
calculamos el valor de. A continuación cambiamos el sistema desde el mismo estado hasta el estado
final, pero en esta ocasión por u n camino diferente. Lo hacemos esto una y otra vez, usando diferentes
caminos en cada caso. Encontramos que en todos los intentos es la misma. Esto es, aunque y
separadamente dependen del camino tomado, no depende, en lo absoluto, de cómo pasamos el sistema
del estado al estado, sino solo de los estados inicial y final (de equilibrio).
Del estudio de la mecánica recordará, que cuando un objeto se mueve de un punto inicial a otro final , en
un campo gravitacional en ausencia de fricción, el trabajo hecho depende solo de las posiciones de los
puntos y no, en absoluto, de la trayectoria por la que el cuerpo se mueve. De esto concluimos que hay
una energía potencial, función de las coordenadas espaciales del cuerpo, cuyo valor final menos su valor
inicial, es igual al trabajo hecho al desplazar el cuerpo. Ahora, en la termodinámica, encontramos
experimentalmente, que cuando en un sistema ha cambiado su estado al, la cantidad dependen solo de
las coordenadas inicial y final y no, en absoluto, del camino tomado entre estos puntos extremos.
Concluimos que hay una función de las coordenadas termodinámicas, cuyo valor final, menos su valor
inicial es igual al cambio en el proceso. A esta función le llamamos función de la energía interna.
Representemos la función de la energía interna por la letra. Entonces la energía interna del sistema en el
estado, , es solo el cambio de energía interna del sistema, y esta cantidad tiene un valor determinado
independientemente de la forma en que el sistema pasa del estado al estado f: Tenemos entonces que:
Como sucede para la energía potencial, también para que la energía interna, lo que importa es su
cambio. Si se escoge un valor arbitrario para la energía interna en un sistema patrón de referencia, su
valor en cualquier otro estado puede recibir un valor determinado. Esta ecuación se conoce como la
primera ley de la termodinámica, al aplicarla debemos recordar que se considera positiva cuando el calor
entra al sistema y que será positivo cuando el trabajo lo hace el sistema.
A la función interna, se puede ver como muy abstracta en este momento. En realidad, la termodinámica
clásica no ofrece una explicación para ella, además que es una función de estado que cambia en una
forma predecible. ( Por función del estado, queremos decir, que exactamente, que su valor depende solo
del estado físico del material: su constitución, presión, temperatura y volumen.) La primera ley de la
termodinámica, se convierte entonces en un enunciado de la ley de la conservación de la energía para los
sistemas termodinámicos.
La energía total de un sistema de partículas, cambia en una cantidad exactamente igual a la cantidad que
se le agrega al sistema, menos la cantidad que se le quita.
Podrá parecer extraño que consideremos que sea positiva cuando el calor entra al sistema y que sea
positivo cuando la energía sale del sistema como trabajo. Se llegó a esta convención, porque fue el
estudio de las máquinas térmicas lo que provocó inicialmente el estudio de la termodinámica.
Simplemente es una buena forma económica tratar de obtener el máximo trabajo con una maquina de
este tipo, y minimizar el calor que debe proporcionársele a un costo importante. Estas naturalmente se
convierten en cantidades de interés.
Si nuestro sistema sólo sufre un cambio infinitesimal en su estado, se absorbe nada más una cantidad
infinitesimal de calor y se hace solo una cantidad infinitesimal de trabajo, de tal manera que el cambio de
energía interna también es infinitesimal. Aunque y no son diferencias verdaderas, podemos escribir la
primera ley diferencial en la forma:
.
Podemos expresar la primera ley en palabras diciendo: Todo sistema termodinámico en un estado de
equilibrio, tiene una variable de estado llamada energía interna cuyo cambio en un proceso diferencial
http://www.monografias.com/trabajos13/termodi/termodi.shtml (3 of 16)25/05/2005 13:47:53
Termodinámica- Monografias.com
está dado por la ecuación antes escrita.
La primera ley de la termodinámica se aplica a todo proceso de la naturaleza que parte de un estado de
equilibrio y termina en otro. Decimos que si un sistema esta en estado de equilibrio cuando podemos
describirlo por medio de un grupo apropiado de parámetros constantes del sistema como presión ,el
volumen, temperatura, campo magnético y otros la primera ley sigue verificándose si los estados por los
que pasa el sistema de un estado inicial (equilibrio), a su estado final (equilibrio), no son ellos mismos
estados de equilibrio. Por ejemplo podemos aplicar la ley de la termodinámica a la explosión de un cohete
en un tambor de acero cerrado.
Hay algunas preguntas importantes que no puede decir la primera ley. Por ejemplo, aunque nos dice que
la energía se conserva en todos los procesos, no nos dice si un proceso en particular puede ocurrir
realmente. Esta información nos la da una generalización enteramente diferente, llamada segunda ley de
la termodinámica, y gran parte de los temas de la termodinámica dependen de la segunda ley.
Segunda ley de la termodinámica.
Las primeras máquinas térmicas construidas, fueron dispositivos muy eficientes. Solo una pequeña
fracción del calor absorbido de la fuente de la alta temperatura se podía convertir en trabajo útil. Aun al
progresar los diseños de la ingeniería, una fracción apreciable del calor absorbido se sigue descargando
en el escape de una máquina a baja temperatura, sin que pueda convertirse en energía mecánica. Sigue
siendo una esperanza diseñar una maquina que pueda tomar calor de un depósito abundante, como el
océano y convertirlo íntegramente en un trabajo útil. Entonces no seria necesario contar con una fuente
de calor una temperatura más alta que el medio ambiente quemando combustibles. De la misma manera,
podría esperarse, que se diseñara un refrigerador que simplemente transporte calor, desde un cuerpo frío
a un cuerpo caliente, sin que tenga que gastarse trabajo exterior. Ninguna de estas aspiraciones
ambiciosas violan la primera ley de la termodinámica. La máquina térmica sólo podría convertir energía
calorífica completamente en energía mecánica, conservándose la energía total del proceso. En el
refrigerador simplemente se transmitiría la energía calorífica de un cuerpo frío a un cuerpo caliente, sin
que se perdiera la energía en el proceso. Nunca se ha logrado ninguna de estas aspiraciones y hay
razones para que se crea que nunca se alcanzarán.
La segunda ley de la termodinámica, que es una generalización de la experiencia, es una exposición
cuyos artificios de aplicación no existen. Se tienen muchos enunciados de la segunda ley, cada uno de
los cuales hace destacar un aspecto de ella, pero se puede demostrar que son equivalentes entre sí.
Clausius la enuncio como sigue: No es posible para una máquina cíclica llevar continuamente calor de un
cuerpo a otro que esté a temperatura más alta, sin que al mismo tiempo se produzca otro efecto (de
compensación). Este enunciado desecha la posibilidad de nuestro ambicioso refrigerador, ya que éste
implica que para transmitir calor continuamente de un objeto frío a un objeto caliente, es necesario
proporcionar trabajo de un agente exterior. Por nuestra experiencia sabemos que cuando dos cuerpos se
encuentran en contacto fluye calor del cuerpo caliente al cuerpo frío. En este caso, la segunda ley elimina
la posibilidad de que la energía fluya del cuerpo frío al cuerpo caliente y así determina la dirección de la
transmisión del calor. La dirección se puede invertir solamente por medio de gasto de un trabajo.
Kelvin (con Planck) enuncio la segunda ley con palabras equivalentes a las siguientes: es completamente
imposible realizar una transformación cuyo único resultado final sea el de cambiar en trabajo el calor
extraído de una fuente que se encuentre a la misma temperatura. Este enunciado elimina nuestras
ambiciones de la máquina térmica, ya que implica que no podemos producir trabajo mecánico sacando
calor de un solo depósito, sin devolver ninguna cantidad de calor a un depósito que esté a una
http://www.monografias.com/trabajos13/termodi/termodi.shtml (4 of 16)25/05/2005 13:47:53
Termodinámica- Monografias.com
temperatura más baja.
Para demostrar que los dos enunciados son equivalentes, necesitamos demostrar que si cualquiera de
los enunciados es falso, el otro también debe serlo. Supóngase que es falso el enunciado de Clausius, de
tal manera que se pudieran tener un refrigerador que opere sin que se consuma el trabajo. Podemos usar
una máquina ordinaria para extraer calor de un cuerpo caliente, con el objeto de hacer trabajo y devolver
parte del calor a un cuerpo frío.
Pero conectando nuestro refrigerador "perfecto" al sistema, este calor se regresaría al cuerpo caliente, sin
gasto de trabajo, quedando así utilizable de nuevo para su uso en una máquina térmica. De aquí que la
combinación de una maquina ordinaria y el refrigerador "perfecto" formará una máquina térmica que
infringe el enunciado de Kelvin-Planck. O podemos invertir el argumento. Si el enunciado Kelvin-Planck
fuera incorrecto, podríamos tener una máquina térmica que sencillamente tome calor de una fuente y lo
convierta por completo en trabajo. Conectando esta máquina térmica "perfecta" a un refrigerador
ordinario, podemos extraer calor de un cuerpo ordinario, podemos extraer calor de un cuerpo caliente,
convertirlo completamente en trabajo, usar este trabajo para mover un refrigerador ordinario, extraer calor
de un cuerpo frío, y entregarlo con el trabajo convertido en calor por el refrigerador, al cuerpo caliente. El
resultado neto es una transmisión de calor desde un cuerpo frío, a un cuerpo caliente, sin gastar trabajo,
lo infringe el enunciado de Clausius.
La segunda ley nos dice que muchos procesos son irreversibles. Por ejemplo, el enunciado de Clausius
específicamente elimina una inversión simple del proceso de transmisión de calor de un cuerpo caliente, a
un cuerpo frío. Algunos procesos, no sólo no pueden regresarse por sí mismos, sino que tampoco
ninguna combinación de procesos pueden anular el efecto de un proceso irreversible, sin provocar otro
cambio correspondiente en otra parte.
Tercera ley de la termodinámica.
En el análisis de muchas reacciones químicas es necesario fijar un estado de referencia para la entropia.
Este siempre puede escogerse algún nivel arbitrario de referencia cuando solo se involucra un
componente; para las tablas de vapor convencionales se ha escogido 320F. Sobre la base de las
observaciones hechas por Nernst y por otros, Planck estableció la tercera ley de la termodinámica en
1912, así:
la entropía de todos los sólidos cristalinos perfectos es cero a la temperatura de cero absoluto.
Un cristal "perfecto" es aquel que esta en equilibrio termodinámica. En consecuencia, comúnmente se
establece la tercera ley en forma más general, como:
La entropía de cualquier sustancia pura en equilibrio termodinámico tiende a cero a medida que la
temperatura tiende a cero.
La importancia de la tercera ley es evidente. Suministra una base para el calculo de las entropías
absolutas de las sustancias, las cuales pueden utilizarse en las ecuaciones apropiadas para determinar la
dirección de las reacciones químicas.
Una interpretación estadística de la tercera ley es más bien sencilla, puesto que la entropia se ha definido
como:
En donde k es la constante de Bolzmall es la probabilidad termodinámica. En vista de la anterior
disertación, la tercera ley equivale a establecer que:
cuando 0.
Esto significa que sólo existe una forma de ocurrencia del estado de energía mínima para una sustancia
que obedezca la tercera ley.
Hay varios casos referidos en la literatura en donde los cálculos basados en la tercera ley no están
http://www.monografias.com/trabajos13/termodi/termodi.shtml (5 of 16)25/05/2005 13:47:53
Termodinámica- Monografias.com
desacuerdo con los experimentos. Sin embargo, en todos los casos es posible explicar el desacuerdo
sobre la base de que la sustancia no es "pura", esto es, pueda haber dos o más isótopos o presentarse
moléculas diferentes o, también, una distribución de no equilibrio de las moléculas. En tales casos hay
más de un estado cuántico en el cero absoluto y la entropía no tiende a cero.
3. Entropía.
La entropía, como todas las variables de estado, dependen sólo de los estados del sistema, y debemos
estar preparados para calcular el cambio en la entropía de procesos irreversibles, conociendo sólo los
estados de principio y al fin. Consideraremos dos ejemplos:
1.- Dilatación libre: Dupliquemos el volumen de un gas, haciendo que se dilate en un recipiente vacío,
puesto que no se efectúa reacción alguna contra el vacío, y, como el gas se encuentra encerrado entre
paredes no conductoras,. por la primera ley se entiende que o:
donde y se refieren a los estados inicial y final (de equilibrio). Si el gas es ideal, depende únicamente de
la temperatura y no de la presión o el volumen, y la ecuación implica que.
En realidad, la dilatación libre es irreversible, perdemos el control del medio ambiente una vez que
abrimos la llave. Hay sin envergo, una diferencia de entropía, entre los estados de equilibrio inicial y final,
pero no podemos calcularla con la ecuación, por que esta relación se aplica únicamente a trayectorias
reversibles; si tratamos de usar la ecuación, tendremos inmediatamente la facultad de que Q = 0 para la
dilatación libre - además - no sabremos como dar valores significativos de T en los estados intermedios
que no son de equilibrio.
Entonces, ¿Cómo calcularemos Sf - Si para estos estados?, lo haremos determinando una trayectoria
reversible (cualquier trayectoria reversible) que conecte los estados y f, para así calcular el cambio de
entropía de la trayectoria. En la dilatación libre, un trayecto reversible conveniente (suponiendo que se
trate de un gas ideal) es una dilatación isotérmica de VI a Vf (=2Vi). Esto corresponde a la dilatación
isotérmica que se lleva a cabo entre los puntos a y b del ciclo del Carnot.
Esto representa un grupo de operaciones muy diferentes de la dilatación libre y tienen en común la única
condición de que conectan el mismo grupo de estados de equilibrio, y f. De la ecuación y el ejemplo 1
tenemos.
Esto es positivo, de tal manera que la entropía del sistema aumenta en este proceso adiabático
irreversible. Nótese que la dilatación libre es un proceso que, en la naturaleza se desarrolla por sí mismo
una vez iniciado. Realmente no podemos concebir lo opuesto, una compresión libre en la que el gas que
en un recipiente aislado se comprima en forma espontanea de tal manera que ocupe solo la mitad del
volumen que tiene disponible libremente. Toda nuestra experiencia nos dice que el primer proceso es
inevitable y virtualmente, no se puede concebir el segundo.
2.- Transmisión irreversible de calor. Como otro ejemplo, considérense dos cuerpos que son semejantes
en todo, excepto que uno se encuentra a una temperatura TH y el otro a la temperatura TC, donde TH>
TC. Si ponemos ambos objetos en contacto dentro de una caja con paredes no conductoras,
eventualmente llegan a la temperatura común Tm, con un valor entre TH y TC; como la dilatación libre, el
proceso es irreversible, por que perdemos el control del medio ambiente, una vez que colocamos los dos
cuerpos en la caja. Como la dilatación libre, este proceso también es adiabático (irreversible), por que no
entra o sale calor en el sistema durante el proceso.
Para calcular el cambio de entropía para el sistema durante este proceso, de nuevo debemos encontrar
un proceso reversible que conecte los mismos estados inicial y final y calcular el cambio de entropía,
http://www.monografias.com/trabajos13/termodi/termodi.shtml (6 of 16)25/05/2005 13:47:53
Termodinámica- Monografias.com
aplicando la ecuación al proceso. Podemos hacerlo, si imaginamos que tenemos a nuestra disposición un
deposito de calor de gran capacidad calorífica, cuya temperatura T este bajo nuestro control, digamos,
haciendo girar una perilla. Primero ajustamos, la temperatura del deposito a TH a Tm, quitando calor al
cuerpo caliente al mismo tiempo. En este proceso el cuerpo caliente pierde entropía, siendo el cambio de
esta magnitud.
Aquí T1 es una temperatura adecuada escogida entre TH y Tm y Q es el calor extraído.
En seguida ajustamos la temperatura de nuestro depósito a Tc y lo colocamos en contacto con el segundo
cuerpo (el más frío). A continuación elevamos lentamente (reversiblemente) la temperatura del depósito
de Tc a Tm, cediendo calor al cuerpo frío mientras lo hacemos. El cuerpo frío gana entropía en este
proceso, siendo su cambio.
Aquí T2 es una temperatura adecuada, escogida para que quede entre Tc y Tm y Q es el calor agregado.
El calor Q agregado al cuerpo frío es igual al Q extraído del cuerpo caliente.
Los dos cuerpos se encuentran ahora en la misma temperatura Tm y el sistema se encuentra en el estado
de equilibrio final. El cambio de entropía para el sistema completo es:
Como T1>T2, tenemos Sf >Si. De nuevo, como para la dilatación libre, la entropía del sistema aumenta en
este proceso reversible y adiabático.
Nótese que, como la dilatación libre, nuestro ejemplo de la conducción del calor es un proceso que en la
naturaleza se desarrolla por sí mismo una vez que se ha iniciado. En realidad no podemos concebir el
proceso opuesto, en el cual, por ejemplo, una varilla de metal en equilibrio térmico a la temperatura del
cuarto espontáneamente se ajuste de tal manera, que un extremo quede más caliente y en el otro más
frío. De nuevo, la naturaleza tiene la preferencia irresistible para que el proceso se efectúe en una
dirección determinada y no en la opuesta.
En cada uno de estos ejemplos, debemos distinguir cuidadosamente el proceso real (irreversible)
(dilatación libre o transmisión del calor) y el proceso reversible que se introdujo, para que se pudiera
calcular el cambio de entropía en el proceso real.
Podemos escoger cualquier proceso reversible, mientras conecte los mismos estados inicial y final que el
proceso real; todos estos procesos reversibles llevarán al mismo cambio de entropía porque ella depende
sólo los estados inicial y final y no de los procesos que los conectan, tanto si son reversibles como si son
irreversibles.
4. Calor y Temperatura
Mediante el contacto de la epidermis con un objeto se perciben sensaciones de frío o de calor, siendo
está muy caliente. Los conceptos de calor y frío son totalmente relativos y sólo se pueden establecer con
la relación a un cuerpo de referencia como, por ejemplo, la mano del hombre.
Lo que se percibe con más precisión es la temperatura del objeto o, más exactamente todavía, la
diferencia entre la temperatura del mismo y la de la mano que la toca. Ahora bien, aunque la sensación
experimentada sea tanto más intensa cuanto más elevada sea la temperatura, se trata sólo una
apreciación muy poco exacta que no puede considerarse como medida de temperatura. Para efectuar
esta ultima se utilizan otras propiedades del calor, como la dilatación, cuyos efectos son susceptibles.
Con muy pocas excepciones todos los cuerpos aumentan de volumen al calentarse y diminuyen cuando
se enfrían. En caso de los sólidos, el volumen suele incrementarse en todas las direcciones se puede
observar este fenómeno en una de ellas con experiencia del pirómetro del cuadrante.
El, pirómetro del cuadrante consta de una barra metálica apoyada en dos soportes, uno de los cuales se
http://www.monografias.com/trabajos13/termodi/termodi.shtml (7 of 16)25/05/2005 13:47:53
Termodinámica- Monografias.com
fija con un tornillo, mientras que el otro puede deslizarse y empujar una palanca acodada terminada por
una aguja que recorre un cuadrante o escala cuadrada. Cuando, mediante un mechero, se calienta
fuertemente la barra, está se dilata y el valor del alargamiento, ampliado por la palanca, aparece en el
cuadrante.
Otro experimento igualmente característico es el llamado del anillo de Gravesande. Este aparato se
compone de un soporte del que cuelga una esfera metálica cuyo diámetro es ligeramente inferior al de un
anillo el mismo metal por el cual puede pasar cuando las dos piezas están a l a misma temperatura. Si se
calienta la esfera dejando el anillo a la temperatura ordinaria, aquella se dilata y no pasa por el anillo; en
cambio puede volver a hacerlo una vez enfriada o en el caso en que se hayan calentando
simultáneamente y a la misma temperatura la esfera y el anillo.
La dilatación es, por consiguiente, una primera propiedad térmica de los cuerpos, que permite llegar a la
noción de la temperatura.
La segunda magnitud fundamental es la cantidad de calor que se supone reciben o ceden los cuerpos al
calentarse o al enfriarse, respectivamente.
La cantidad de calor que hay que proporcionar a un cuerpo para que su temperatura aumente en un
numero de unidades determinado es tanto mayor cuanto más elevada es la masa de dicho cuerpo y es
proporcional a lo que se denomina calor especifico de la sustancia de que está constituido.
Cuando se calienta un cuerpo en uno de sus puntos, el calor se propaga a los que son próximos y la
diferencia de temperatura entre el punto calentado directamente y otro situado a cierta distancia es tanto
menor cuando mejor conducto del calor es dicho cuerpo. Si la conductibilidad térmica de un cuerpo es
pequeña, la transmisión del calor se manifiesta por un descenso rápido de la temperatura entre el punto
calentado y otro próximo. Así sucede con el vidrio, la porcelana, el caucho, etc. En el caso contrario, por
ejemplo con metales como el cobre y la plata, la conductibilidad térmica es muy grande y la disminución
de temperatura entre un punto calentado y el otro próximo es muy reducida.
Se desprende de lo anterior que el estudio del calor sólo puede hacerse después de haber definido de
una manera exacta los dos términos relativos al propio calor, es decir, la temperatura, que se expresa en
grados, y la cantidad de calor, que se expresa en calorías.
Habrá que definir después algunas propiedades específicas de los cuerpos en su manera de comportarse
con respecto al calor y la conductibilidad térmica.
5. Escalas de medición de la temperatura
Las dos escalas de temperatura de uso común son la Celsius (llamada anteriormente ‘’centígrada’’) y la
Fahrenheit. Estas se encuentran definidas en términos de la escala Kelvin, que es las escala fundamental
de temperatura en la ciencia.
La escala Celsius de temperatura usa la unidad ‘’grado Celsius’’ (símbolo 0C), igual a la unidad ‘’Kelvin’’.
Por esto, los intervalos de temperatura tienen el mismo valor numérico en las escalas Celsius y Kelvin. La
definición original de la escala Celsius se ha sustituido por otra que es más conveniente. Sí hacemos que
Tc represente la escala de temperatura, entonces: Tc = T - 273.150
relaciona la temperatura Celsius Tc (0C) y la temperatura Kelvin T(K). Vemos que el punto triple del agua
(=273.16K por definición), corresponde a 0.010C. La escala Celsius se definió de tal manera que la
temperatura a la que el hielo y el aire saturado con agua se encuentran en equilibrio a la presión
atmosférica - el llamado punto de hielo - es 0.00 0C y la temperatura a la que el vapor y el agua liquida,
están en equilibrio a 1 atm de presión -el llamado punto del vapor- es de 100.00 0C.
La escala Fahrenheit, todavía se usa en algunos países que emplean el idioma ingles aunque
http://www.monografias.com/trabajos13/termodi/termodi.shtml (8 of 16)25/05/2005 13:47:53
Termodinámica- Monografias.com
usualmente no se usa en el trabajo científico. Se define que la relación entre las escalas Fahrenheit y
Celsius es:
De esta relación podemos concluir que el punto del hielo (0.000C) es igual a 32.0 0F, y que el punto del
vapor (100.00C) es igual a 212.0 0F, y que un grado Fahrenheit es exactamente igual del tamaño de un
grado Celsius.
6. Teoría cinética de los gases.
La termodinámica se ocupa solo de variables microscópicas, como la presión, la temperatura y el
volumen. Sus leyes básicas, expresadas en términos de dichas cantidades, no se ocupan para nada de
que la materia esta formada por átomos. Sin embargo, la mecánica estadística, que estudia las mismas
áreas de la ciencia que la termodinámica, presupone la existencia de los átomos. Sus leyes básicas son
las leyes de la mecánica, las que se aplican en los átomos que forman el sistema.
No existe una computadora electrónica que pueda resolver el problema de aplicar las leyes de la
mecánica individualmente a todos los átomos que se encuentran en una botella de oxigeno, por ejemplo.
Aun si el problema pudiera resolverse, los resultados de estos cálculos serian demasiados voluminosos
para ser útiles.
Afortunadamente, no son importantes las historias individuales detalladas de los átomos que hay en un
gas, si sólo se trata de determinar el comportamiento microscópico del gas. Así, aplicamos las leyes de la
mecánica estadísticamente con lo que nos damos cuenta de que podemos expresar todas las variables
termodinámica como promedios adecuados de las propiedades atómicas. Por ejemplo, la presión ejercida
por un gas sobre las paredes de un recipiente es la rapidez media, por unidad de área, a la que los
átomos de gas transmiten ímpetu a la pared, mientras chocan con ella. En realidad el numero de átomos
en un sistema microscópico, casi siempre es tan grande, que estos promedios definen perfectamente las
cantidades.
Podemos aplicar las leyes de la mecánica estadísticamente a grupos de átomos en dos niveles
diferentes. Al nivel llamado teoría cinética, en el que procederemos en una forma más física, usando para
promediar técnicas matemáticas bastantes simples.
En otro nivel, podemos aplicar las leyes de la mecánica usando técnicas que son más formales y
abstractas que las de la teoría cinética. Este enfoque desarrollado por J. Willard Gibbs (1839-1903) y por
Ludwig Boltzmann (1844-1906)entre otros, se llama mecánica estadística, un termino que incluye a la
teoría cinética como una de sus ramas. Usando estos métodos podemos derivar las leyes de la
termodinámica, estableciendo a esta ciencia como una rama de la mecánica. El florecimiento pleno de la
mecánica estadística (estadística cuántica), que comprende la aplicación estadística de las leyes de la
mecánica cuántica, más que las de la mecánica clásica para sistemas de muchos átomos.
Gas ideal : Una descripción macroscópica.
Hagamos que cierta cantidad de gas esté confinada en un recipiente del volumen V. Es claro que
podemos reducir su densidad, retirando algo de gas en el recipiente, o colocando el gas en un recipiente
más grande. Encontramos experimentalmente que a densidades lo bastante pequeñas, todos los gases
tienden a mostrar ciertas relaciones simples entre las variables termodinámicas p,V y T. Esto sugiere el
concepto de un gas ideal, uno que tendrá el mismo comportamiento simple, bajo todas las condiciones de
temperatura y presión.
Dado cualquier gas en un estado de equilibrio térmico, podemos medir su presión p, su temperatura T y
su volumen V. Para valores suficientes pequeños la densidad, los experimentos demuestran que (1) para
http://www.monografias.com/trabajos13/termodi/termodi.shtml (9 of 16)25/05/2005 13:47:53
Termodinámica- Monografias.com
una masa dada de gas que se mantiene a temperatura constante, la presión es inversamente
proporcional al volumen (ley de Boyle), y (2) para una masa dada de gas que se mantiene a presión
constante, el volumen es directamente proporcional a la temperatura (ley de Charles y Gay Lussac).
Podemos resumir estos resultados experimentales por medio de la relación:
una constante (para una masa fija de gas).
El volumen ocupado por un gas a una presión y temperaturas dadas, es proporcional a la masa del gas.
Así, la constante de la ecuación una constante, también debe ser proporcional a la masa del gas, por ello
escribimos la constante de la ecuación una constante; como nR, donde n es el numero de moles de gas
en la muestra y R es una constante que debe determinarse en forma experimental para cada gas. Los
experimentos demuestran que, a densidades suficientes pequeñas, R tiene el mismo valor para todos los
gases, a saber,
R=8.314 J/mol K = 1.986 cal/mol K
R se llama la constante universal de los gases. Con esto escribimos la ecuación una constante, en la
forma:
pV=nRT,
y definimos a un gas ideal, como aquel que obedece esta relación bajo todas las condiciones. No existe
algo que seaen verdad un gas ideal, pero sigue siendo concepto muy util y sencillo, relacionado
realmente, con el hecho que todos los gases reales se aproximan a la abtracción de los gases ideales en
su comportamiento, siempre que la densidad sea suficientemente pequeña. pV=nRT se llama ecuación
de estado de un gas ideal.
Si pudieramos llenar al bulbo de un termonetro de gas (ideal) a volumen constante, un gas ideal, de
veriamos, deacuerdo con la ecuación pV=nRT, que podemos definir la temperatura en terminos de sus
lecturas de presión; esto es: (gas ideal).
Aquí es la presión del gas en el punto triple del agua, en el que la temperatura es por definición 273.16 K.
En la practica, debemos llenar nuestro termometro con un gas real y medir la temperatura extrapolando a
la densidad cero, usando la ecuación:
(gas real).
Gas ideal: una descripción microscópica.
Desde el punto de vista microscópico, definimos a un gas ideal haciendo las siguientes suposiciones, con
lo que nuestra tarea será la de aplicar las leyes de la mecánica clásica, estadísticamente, a los átomos
del gas y demostrar que nuestra definición microscópica es consecuente con la definición macroscópica
de la sección procedente:
1.- Un gas esta formado por partículas llamadas moléculas. Dependiendo del gas, cada molécula esta
formada por un átomo o un grupo de átomos. Si el gas es un elemento o un compuesto en su estado
estable, consideramos que todas sus moléculas son idénticas.
2.- Las moléculas se encuentran animadas de movimiento aleatorio y obedecen las leyes de Newton del
movimiento. Las moléculas se mueven en todas direcciones y a velocidades diferentes. Al calcular las
propiedades del movimiento suponemos que la mecánica newtoniana se puede aplicar en el nivel
microscópico. Como para todas nuestras suposiciones, esta mantendrá o desechara, dependiendo de si
los hechos experimentales indican o no que nuestras predicciones son correctas.
3.- El numero total de moléculas es grande. La dirección y la rapidez del movimiento de cualquiera de las
moléculas puede cambiar bruscamente en los choques con las paredes o con otras moléculas.
Cualquiera de las moléculas en particular, seguirá una trayectoria de zigzag, debido a dichos choques.
Sin embargo, como hay muchas moléculas, suponemos que el gran numero de choques resultante
http://www.monografias.com/trabajos13/termodi/termodi.shtml (10 of 16)25/05/2005 13:47:53
Termodinámica- Monografias.com
mantiene una distribución total de las velocidades moleculares con un movimiento promedio aleatorio,
4.- El volumen de las moléculas es una fracción despreciablemente pequeña del volumen ocupado por el
gas. Aunque hay muchas moléculas, son extremadamente pequeñas. Sabemos que el volumen ocupado
por una gas se puede cambiar en un margen muy amplio, con poca dificultad y que, cuando un gas se
condensa, el volumen ocupado por el liquido puede ser miles de veces menor que la del gas se
condensa, el volumen ocupado por el liquido puede ser miles de veces menor que el del gas. De aquí que
nuestra suposición es posible.
5.- No actúan fuerzas apreciables sobre las moléculas, excepto durante los choques. En el grado de que
esto sea cierto, una molécula se moverá con velocidad uniformemente los choques. Como hemos
supuesto que las moléculas son tan pequeñas, la distancia media entre ellas es grande en comparación
con el tamaño de una de las moléculas. De aquí que suponemos que el alcance de las fuerzas
moleculares es comparable al tamaño molecular.
6.- Los choques son elásticos y de duración despreciable. En las choques entre las moléculas con las
paredes del recipiente se conserva el ímpetu y (suponemos)la energía cinética. Debido a que el tiempo de
choque es despreciable comparado con el tiempo que transcurre entre los choques de moléculas, la
energía cinética que se convierte en energía potencial durante el choque, queda disponible de nuevo
como energía cinética, después de un tiempo tan corto, que podemos ignorar este cambio por completo.
7. Leyes de los gases
Toda las masas gaseosas experimentan variaciones de presión, volumen y temperatura que se rigen por
las siguientes leyes:
primera ley (Boyle-Mariotte)
Los volúmenes ocupados por una misma masa gaseosa conservándose su temperatura constante, son
inversamente proporcionales a la presión que soporta.
Formula
interpretación
observación
V= volumen inicial
V´=volumen final
P= presión inicial
P´=Presión final
Segunda ley (Gay-Lussac).
Cuando se calienta un gas, el volumen aumenta 1/273 parte de su valor primitivo, siempre que la presión
no varíe. Temperatura y volumen son directamente proporcionales.
Formula
interpretación
observación
V= volumen inicial
V´=volumen final
T= temperatura inicial
T´=temperatura final
Tercera ley (Charles)
La presión ejercida por una masa gaseosa es directamente proporcional a su temperatura absoluta,
siempre que el volumen sea constante.
Formula
interpretación
observación
http://www.monografias.com/trabajos13/termodi/termodi.shtml (11 of 16)25/05/2005 13:47:53
Termodinámica- Monografias.com
P= presión inicial
P´=presión final
T= temperatura inicial
T´=temperatura final
Ecuación general del estado gaseoso.
En una masa gaseosa los volúmenes y las presiones son directamente proporcionales a sus
temperaturas absolutas e inversamente proporcionales entre sí.
Formula
Despejando presión
Interpretación
P=presión inicial
P´=presión final
V=volumen final
V´=volumen final
T´=temperatura final
T=temperatura fianl
" El misterio de el niño cambia al mundo "
Sus efectos, previsibles hasta 1988.
Pescadores peruanos y ecuatorianos fueron los primeros en percatarse de un fenómeno climático que
ocurría con alguna regularidad, lo llamaron El niño pues se presentaba en vísperas de Navidad y lo
asociaban con la llegada del niño Jesús. Posteriormente llamó la atención de los científicos, quienes
comenzaron a estudiarlo.
Durante 1997 el fenómeno ha causado severos cambios en el clima de todo el mundo. Según la
Administración Nacional Oceanográfica y Atmosférica (NOAA, por sus siglas en ingles) en el continente
americano provocara "inusuales alteraciones del clima", que se presentaran de noviembre de 1997 a
marzo de 1998; las observaciones satelitales el aumento de la temperatura del Pacifico ecuatorial.
Ants Leetmaa, director del Centro de Predicciones Climáticas de la NOAA, menciono algunas de estas
inusuales modificaciones: monzones en el sudeste de Asia e India; sequías en Estados Unidos, sudeste
de África, Australia y el noreste de Brasil; fuertes tormentas en el Océano Pacifico e inundaciones en
Perú, Ecuador, Centroamericana y el sur de Estados Unidos. Por su parte, investigadores del Centro de
Predicción Ambiental Marítima de China informaron que el fenómeno meteorológico será el mas fuerte de
este siglo y sus efectos se agudizaran a finales del año. Son Xuejia, director del centro, advirtió: "En estos
momentos la fuerza de esta alteración natural es igual a la de 1982, pero se espera que se fortalezca aun
mas a finales de 1997".
Dice que el mar ha registrado movimientos violentos y la alteración de las temperaturas atmosféricas
indica que durante este año El niño se presentara con tal fuera que probablemente será catalogado como
el peor del siglo.
El niño del siglo.
Desde que se estudia, uno de los peores fenómenos que se ha presentado es el de 1982-1983, cuando
provoco inundaciones en Perú, lluvias torrenciales en el sur de California y benefició con un invierno
anormal a una parte de Estados Unidos. En lo que fue su ultimo gran golpe, el meteoro causó graves
sequías en Indonesia, África y Australia; persistentes lluvias en América, además de severas
http://www.monografias.com/trabajos13/termodi/termodi.shtml (12 of 16)25/05/2005 13:47:53
Termodinámica- Monografias.com
inundaciones y deslizamientos.
En este periodo, ocasiono mas de 2 mil muertes en el mundo y dalos materiales por 13 mil millones de
dólares. Por ahora, los pronósticos señalan que el fenómeno seguirá fortaleciéndose, pasara por su
máxima intensidad hacia finales de este año y se prolongara en su fase de debilitamiento en los primeros
meses del año.
¿ Qué es el niño ?
Es una masa de agua con una temperatura por arriba de lo normal y se asocia con los tifones,
inundaciones, sequías terrestres y toda clase de cambios climáticos. Se desplaza desde las costas de
Indonesia por la línea ecuatorial, hasta las costas del pacifico sudamericano en el verano del Hemisferio
Sur; al suceder esto, las aguas costeras de Perú, Ecuador y del norte de Chile se elevan algunos grados
por encima del promedio.
Este fenómeno que se genera con intervalos de dos a siete años se caracteriza porque la superficie del
mar y la atmósfera sobre él presentan una condición anormal durante un periodo de 12 a 18 meses, que
decae cuando no hay suficiente agua cálida para sostener el ciclo.
El Ingeniero Carlos Espinosa González, gerente del Sistema Meteorológico Nacional (SMN), explico que
el meteoro se inicia durante el verano, se propaga hacia el este y alcanza su etapa de madurez en el
invierno del Hemisferio Norte. El niño se origina en el Océano Pacifico tropical, cerca de Australia e
Indonesia, donde aumenta la temperatura de las aguas superficiales. Este máximo de temperatura se
desplaza gradualmente hacia el este y alrededor de seis meses después, alcanza la costa de América del
Sur, en el extremo este del Pacifico.
El desplazamiento del máximo de temperatura va acompañado de un enfriamiento relativo en el Océano
Pacifico Occidental, cerca de Asia. Mientras esto sucede en el océano, en la atmósfera, se altera el
patrón de la presión atmosférica, la cual baja en el este del Pacifico y sube en el oeste. A la aparición y
desplazamiento del máximo de temperatura se le ha nombrado "episodio cálido" y al sube y baja de la
presión, oscilación del sur.
En tanto, los científicos lo llamaron ENOS (El niño, Oscilación del Sur) y lo definen como alteraciones de
los patrones de circulación del océano y la atmósfera. Durante ENOS se altera la presión atmosférica en
zonas distintas entre sí, cambia la dirección y velocidad del viento y se desplazan las zonas de lluvia de la
región tropical. En el océano, la contracorriente ecuatorial, que dirige las aguas frías de la corriente del
Perú hacia el oeste, se debilita, favoreciendo el transporte de aguas cálidas hacia la costa de América del
Sur.
Los cambios climáticos que acompañan a El niño son:
● Sube la presión atmosférica en el Pacifico, a la altura del Ecuador sobre el oeste.
● Los vientos predominantes se debilitan y revierten su dirección normal.
● El agua oceánica fluye a mayor temperatura hacia el Ecuador.
Se producen fuertes lluvias en el Pacifico Central y este, a la altura del Ecuador.
Lo contrario a este fenómeno es La niña o fase fría de ENOS. En este caso las aguas son más frías de lo
normal en el Pacifico tropical del este, a la altura de las costas de Sudamérica.
Cuando se presenta en territorio nacional, los veranos son lluviosos, el invierno es tibio y la actividad de
huracanes aumenta principalmente en el Golfo de México y en el Océano Atlántico.
No se sabe cuando será el año de La niña; por lo pronto, hasta los primeros meses de 1998, El niño
seguirá modificando los patrones del clima del mundo. Estos fenómenos no se pueden presentar al
mismo tiempo y tampoco es factible predecir cuando volverá a darse cualquiera de los dos.
http://www.monografias.com/trabajos13/termodi/termodi.shtml (13 of 16)25/05/2005 13:47:53
Termodinámica- Monografias.com
La llegada de el niño.
Se ha presentado 17 veces desde 1925. Entre lo mas recordados esta el de 1953, pero al de este año es
al que se ha considera como el más intenso. Los científicos atribuyen a varias causas naturales su
aparición. Daniel Walter, investigador de la Universidad de Hawai, asocia el fenómeno con la actividad
que ocurre con el lecho del océano, dice que hay una conexión entre los terremotos bajo el mar y la
incidencia de El niño.
En su opinión, la aparición del fenómeno coincidió con sismos en el East Pacific Rise, una cadena
montañosa ubicada en el océano. La temperatura volcánica llegaba a la superficie del este y calentaba el
agua y el aire de la zona, desencadenando las anormalidades que lo caracterizan.
Por su parte, John Toole, oceanógrafo de Massachussets, explica que el problema lo provocan el océano
y la atmósfera. "La principal causa esta en el primero, que es muy ancho para dar una respuesta uniforme
a la acción de la radiación solar".
En la actualidad los investigadores vinculan más estrechamente la ocurrencia de El niño con cambios en
la presión atmosférica y en la dirección de los vientos en la zona ecuatorial. Carlos Espinosa lo define
como una combinación de interacciones entre el océano y la atmósfera, pero advierte que "no se conocen
las causas que originan el desarrollo del fenómeno y no se puede pronosticar. Se sabe que apareció
cuando el agua del océano se calentó más de lo normal y predominaron los vientos de oeste a este.
¿Que es un coloide?
Es un sistema en el cual las partículas de una sustancia pueden hallarse en suspensión en un liquido -sin
tender a acumularse en la superficie ni en el fondo - merced a un equilibrio llamado estado coloidal
(sustancia cuyas partículas tienen propiedades coloidales).
Las partículas de todas las substancias coloidales se hayan cargadas eléctricamente y no pueden
atravesar dichas membranas.
Las partículas coloidales (micelas) se emulsionan en el seno del líquido y dan una seudosolución (sol)
cuya estabilidad depende de la viscosidad y tensión superficial del solvente y de la carga eléctrica de las
micelas. Esta carga puede ser negativa o positiva - según la sustancia de que se trate - paro siempre del
mismo signo para todas las micelas. Por consiguiente, estas se repelen y no pueden aglomerarse.
Una parte de los tejidos vegetales y animales son de naturaleza coloidal. Además, los coloides
constituyen el punto de partida de importantes procesos industriales, cuales son la fabricación del caucho,
de la seda artificial, del celuloide y otras materias.
La suspensión de partículas liquidas en un medio gaseoso es aerosol.
¿Que es el ozono?
El ozono esta formado por los efluvios eléctricos, se encuentra en pequeñas cantidades en la baja
atmósfera, pero existe también en las capas más elevadas donde es engendrado por las radiaciones
solares ultravioleta.
Gas de la formula O3 que no es sino una variedad de oxigeno cuyas moléculas constan de tres átomos en
vez de los que tiene la molécula de oxigeno ordinario.
Si el ozono contenido en la atmósfera se hallara en el suelo, a la temperatura y presión normales,
formaría una capa del orden de 2, 5 mm de espesor. En realidad, casi todo este ozono esta concentrado
en la ozonósfera, parte de la estratosfera situada entre 15 y 40 Km. Allí se produce, al ser disociadas las
moléculas de oxigeno del aire por los rayos ultraviolados de origen solar y también por los electrones
libres y las radiaciones libres y las radiaciones cósmicas. El ozono detiene así a todos los rayos
ultraviolados solares de la longitud de onda inferior a 2900 ángstrom, cuya circunstancia se debe - dado
http://www.monografias.com/trabajos13/termodi/termodi.shtml (14 of 16)25/05/2005 13:47:53
Termodinámica- Monografias.com
las referidas radiaciones son mortales, tanto para los animales como para las plantas - La existencia de
vida en nuestro planeta.
8. Presión atmosferica en relación al medio ambiente.
El aire atmosférico ejerce sobre toda pared sólida en la que se encuentra sumergido una presión
perpendicular, que se denomina presión atmosférica, cuyo valor es aproximadamente de un kilogramo por
centímetro cuadrado.
La presión atmosférica es la que ejerce la atmósfera sobre todos los objetos que se hallan en contacto
con ella y que no es sino la manifestación del peso del aire.
Una columna de aire cuya base mida 1 cm2 y cuya altura sea la de la atmósfera, pesa 1003g y equilibra el
peso de la columna de mercurio de igual diámetro y de 76 cm de altura o una de agua de 10,33 m,
equivalentes a 1013 milibares. Dichos valores se refieren a la presión a nivel del mar, ya que, como la
densidad del aire disminuye rápidamente con la altura, también experimenta un rápido descenso la
presión, pues más de la mitad de todo el aire atmosfericose halla concentrado en los 5,000 primeros
metros y 96% del mismo en los primeros 20,000 m. De ahí la necesidad de comprimir el aire en las
cabinas de los aviones y la imposibilidad para los mismos de sustentarse y de hallar en la alta atmósfera
el oxígeno necesario para el funcionamiento de los motores de combustión aerobia. Pero los cohetes, que
no se apoyan con los planos sustentadores y que llevan su propia reserva de comburente, se mueven y
funcionan en las atmósferas más enrarecidas e incluso en el vacío.
La presión atmosférica al nivel del mar se halla sujeta a variaciones provocadas por os movimientos de
las masas de aire, dado que un aire frío es más denso que un aire caliente. Estos cambios provocan
perturbaciones del tiempo.
Dícese que la atmósfera material rodea a las personas y a las cosas. Y por ext., la atmósfera moral y el
conjunto de factores que contribuyen a crear una situación o estado particular alrededor de una persona.
¿ Porqué el cielo es azul ?
El azul del cielo y el rojo de la puesta del sol, se deben a un fenómeno llamado <<difusión>>. Cuando la
luz del sol pasa por la atmósfera de la Tierra, mucha de la luz es recogida por las moléculas del aire y
cedida otra vez en alguna otra dirección. El fenómeno es muy similar a la acción de las ondas del agua
sobre los objetos flotantes. Si, por ejemplo, las ondulaciones procedentes de una piedra arrojada a un
estanque de agua inmóvil encuentran algún corcho pequeño flotando en su superficie, el corcho cabecea
subiendo y bajando con la frecuencia de las ondas que pasan.
La luz se describe como actuando del mismo modo sobre moléculas del aire y finas partículas de polvo.
Una vez puestas en vibración por una onda luminosa, una molécula o una partícula pueden emitir de
nuevo luz absorbida, algunas veces en la misma dirección, pero generalmente en cualquier otra.
Los experimentos demuestran, de acuerdo con la teoría de la difusión, que las ondas más cortas se
difunden más fácilmente que las más largas. Para ser más específicos, la difusión es inversamente
proporcional a la cuarta potencia de la longitud de onda.
Difusión • 1/• 4
De acuerdo con esta ley las ondas cortas de la luz violeta se difunden diez veces más fácilmente que las
ondas largas de la luz roja. Los otros colores se difunden en proporciones intermedias. Así cuando la luz
solar entra en la atmósfera de la Tierra, la luz violeta y la azul, se difunden más, seguidas del verde,
amarilla, anaranjada y roja, en el orden indicado.
Para cada diez ondas violetas ( • = 0,00004 cm ) difundidas en un haz, hay sólo una onda roja ( • =
http://www.monografias.com/trabajos13/termodi/termodi.shtml (15 of 16)25/05/2005 13:47:53
Termodinámica- Monografias.com
0,00007 cm ).
Violeta azul verde amarilla anaranjada roja
10 7 5 3 2 1
A mediodía, en un día claro cuando el Sol está directamente en el cenit, el cielo entero aparece como azul
claro. Este es el color compuesto de la mezcla de colores difundidos más efectivamente por las moléculas
del aire. Puesto que el azul claro del triángulo de los colores se obtiene de la mezcla aditiva de violeta,
azul, verde y amarillo.
Las puestas de sol son rojas, la luz del cielo esta polarizada linealmente en bastante grado, como puede
comprobarse sin dificultad mirando al cielo directamente hacia arriba, a través de una lamina polarizante,
puesto que la luz difusa es sustraída del haz original, que resulta debilitado durante este proceso.
JULIÁN MARCEL CASTRO ARIAS
[email protected]
Cód: 65011079
UNIVERSIDAD LIBRE DE COLOMBIA
FACULTAD DE INGENIERÍA MECÁNICA
BOGOTÁ D.C., 4 DE MARZO DE 2003
Volver al inicio | Volver arriba
Términos y Condiciones - Haga Publicidad en Monografias.com - Contáctenos
© 1997 Lucas Morea / Sinexi S.A.
http://www.monografias.com/trabajos13/termodi/termodi.shtml (16 of 16)25/05/2005 13:47:53
Administración de procesos en SOs - Monografias.com
Regístrese
Compare
precios
Buscar:
Nuevos
Consulte
a los
expertos
Publicar
Toolbar
Foros
Ayuda
Recomendar
Buscar
Recomendamos:
Barra de
herramientas
gratuita
Avanzada
Agregar a Recomendar
favoritos
Imprimir
Bajar
Trabajo
(Descargar)
Administración de procesos
Sistemas operativos
1.
2.
3.
4.
5.
6.
7.
8.
9.
Introducción
Procesos
Implantación de los procesos
Comunicación entre procesos
Instrucción TSL
Planificación de procesos
Colas múltiples
Procesos ligeros
Señales
Introducción
El siguiente documento describe las características que presentan los sistemas operativos para la
administración de procesos en los sistemas mono y multiprocesadores. Se comienza con una
introducción sobre la funcionalidad de un proceso para luego entrar en los detalles de implementación
típicos de los sistemas operativos. Aún no termine la totalidad del documento pero lo quiero publicar en
Internet para obtener feedback por parte de los lectores interesados en el mismo.
Procesos
¿Qué es un proceso?
http://www.monografias.com/trabajos14/administ-procesos/administ-procesos.shtml (1 of 7)25/05/2005 13:48:10
Administración de procesos en SOs - Monografias.com
Un proceso es un programa en ejecución. Un proceso simple tiene un hilo de ejecución, por el momento
dejemos esta última definición como un concepto, luego se verá en más detalle el concepto de hilo. Una
vez definido que es un proceso nos podríamos preguntar cuál es la diferencia entre un programa y un
proceso, y básicamente la diferencia es que un proceso es una actividad de cierto tipo que contiene un
programa, entradas salidas y estados.
Los procesos pueden ser cooperantes o independientes, en el primer caso se entiende que los procesos
interactúan entre sí y pertenecen a una misma aplicación. En el caso de procesos independientes en
general se debe a que no interactúan y un proceso no requiere información de otros o bien porque son
procesos que pertenecen a distintos usuarios.
Estados de los procesos
Un proceso puede estar en cualquiera de los siguientes tres estados: Listo, En ejecución y Bloqueado.
Los procesos en el estado listo son los que pueden pasar a estado de ejecución si el planificador los
selecciona. Los procesos en el estado ejecución son los que se están ejecutando en el procesador en ese
momento dado. Los procesos que se encuentran en estado bloqueado están esperando la respuesta de
algún otro proceso para poder continuar con su ejecución. Por ejemplo operación de E/S.
Implantación de los procesos
La implementación del modelo de procesos se logra debido a que el sistema operativo almacena en una
tabla denominada tabla de control de procesos información relativa a cada proceso que se esta
ejecutando en el procesador. Cada línea de esta tabla representa a un proceso.
La información que se almacena es la siguiente:
1) Identificación del proceso.
2) Identificación del proceso padre.
3) Información sobre el usuario y grupo.
4) Estado del procesador.
5) Información de control de proceso
5.1) Información del planificador.
5.2) Segmentos de memoria asignados.
http://www.monografias.com/trabajos14/administ-procesos/administ-procesos.shtml (2 of 7)25/05/2005 13:48:10
Administración de procesos en SOs - Monografias.com
5.3) Recursos asignados.
Comunicación entre procesos
Condiciones de competencia
Las condiciones de competencia se dan cuando dos o más procesos intentan acceder a un mismo
recurso.
Secciones críticas
Para solucionar las condiciones de competencia se implementó un modelo para prohibir que dos
procesos accedan al mismo recurso. El modelo en cuestión se denomina exclusión mutua.
Exclusión mutua con espera ocupada
Las soluciones con espera ocupada funcionan de la siguiente manera, cuando un proceso intenta
ingresar a su región crítica, verifica si esta permitida la entrada. Si no, el proceso se queda esperando
hasta obtener el permiso.
Desactivación de interrupciones
El método más simple para evitar las condiciones de competencia es hacer que cada proceso desactive
todas sus interrupciones antes de entrar a su sección crítica y las active una vez que salio de la misma.
Este modelo como se puede observar, éste modelo tiene una gran problema y es que si se produce una
falla mientras que el proceso esta en la región crítica no se puede salir de la misma y el sistema operativo
no recuperaría el control.
Variables cerradura
En éste caso se genera una variable la cual puede tener dos valores o bien 0 (no hay ningún proceso en
su sección crítica) o bien 1 (indicando que la sección crítica está ocupada) entonces cada proceso antes
de ingresar a la sección crítica verifica el estado de la variable de cerradura y en caso de que la misma
este en 0, le cambia el valor e ingresa a la misma y en caso de que la misma sea 1 el proceso se queda
verificando el estado de la misma hasta que el mismo sea 0.
El problema aquí se presenta si dos procesos verifican al mismo tiempo que la variable cerradura esta en
0 e ingresan a la región crítica.
Alternancia estricta
El algoritmo de alternancia estricta no bloquea el ingreso a la región crítica cuando otro proceso se esta
ejecutando. El problema de ésta solución es que cuando un proceso no esta en la sección crítica
http://www.monografias.com/trabajos14/administ-procesos/administ-procesos.shtml (3 of 7)25/05/2005 13:48:10
Administración de procesos en SOs - Monografias.com
igualmente tiene bloqueado el acceso a la misma y por lo tanto no permite que otro proceso que requiera
ingresar a la misma logre hacerlo.
Instrucción TSL
Esta solución requiere ayuda del hardware y es debido a que en general las computadoras diseñadas
para tener más de un procesador tienen una instrucción TEST AND SET LOCK
Dormir y despertar
El modelo de espera acotada tienen el inconveniente que se desperdicia tiempo de procesador.
El problema del productor y el consumidor
El problema del productor y el consumidor describe el echo de que cuando hay dos o más procesos
interactuando a través de un buffer común habiendo procesos que ponen información o datos y otros que
los sacan se pueden llegar a dar condiciones en las cuales los procesos que ingresan los datos no
puedan hacerlo debido a que el buffer ya se encuentra lleno y para el caso de los que sacan los datos del
buffer intenten sacar datos cuando ya no hay nada que sacar. Para evitar estas condiciones se
desarrollaron métodos de comunicación/sincronización entre procesos en los cuales se impide que esto
suceda haciendo que el proceso productor "duerma" si el buffer está lleno y una vez que exista espacio el
proceso "consumidor" despierte al productor para que siga generando o viceversa.
Planificación de procesos
La planificación es el proceso por el cual el sistema operativo selecciona que proceso ejecutar. La
selección del proceso se basa en alguno de los algoritmos de planificación que se describen más abajo.
Expulsión
Es la característica por el cual el sistema operativo puede o no expulsar del estado de ejecución a un
proceso dado. En este sentido entonces tenemos la planificación apropiativa en la cual el sistema
operativo puede cortar en cualquier momento la ejecución de un proceso y la planificación no apropiativa
en la cual una vez que el proceso esta en ejecución el sistema operativo no puede sacarlo de ese estado.
Objetivos de la planificación
Los objetivos de la planificación de proceso son:
●
●
●
●
Equidad, todos los procesos deben poder ejecutarse
Eficacia, mantener ocupada la CPU un 100% del tiempo
Tiempo de respuesta, minimizar el tiempo de respuesta al usuario
Tiempo de regreso, minimizar el tiempo que deben esperar los usuarios por lotes para obtener sus
http://www.monografias.com/trabajos14/administ-procesos/administ-procesos.shtml (4 of 7)25/05/2005 13:48:10
Administración de procesos en SOs - Monografias.com
resultados
● Rendimiento, maximizar el número de tareas procesadas por hora.
Algoritmos de planificación
Los algoritmos de planificación son los que definen que política se va a seguir para que un proceso pase
al estado de ejecución.
Planificación Round-Robin
En este tipo de planificación cada proceso tiene asignado un quantum de tiempo para ejecutarse y en el
caso de que no pueda terminar la ejecución en su quantum el proceso pasa de nuevo a la cola de
procesos para ser ejecutado por otro quantum luego de recorrer la cola para asegurarse que todos los
procesos reciban ese quantum de procesamiento.
Planificación por prioridad
En la planificación round-robin todos los procesos son tratados con la misma prioridad. Para el caso de
este tipo de planificación a cada proceso se le asigna una prioridad y los mismos son ejecutados
Colas múltiples
Las colas múltiples están basadas en una pila que sirve como índice de una lista de procesos que se
tienen que ejecutar.
Primero el trabajo más corto
Este tipo de algoritmo de planificación se usa para trabajos en batch o de procesamiento or lotes en los
cuales se puede saber cual es el tiempo de duración de la ejecución de cada proceso y entonces se
puede seleccionar primero el trabajo más corto. El problema que se presenta con éste algoritmo es que
los grandes procesos podrían sufrir de inanición dado que cualquier proceso pequeño se "cuela" sobre
uno de mayor tamaño y como resultado final se podría dar el caso que el proceso grande nunca obtenga
procesamiento.
Planificación garantizada
En este modelo de planificación se tiene en cuenta la cantidad de usuarios en el sistema y se le asigna a
cada uno el tiempo de ejecución de 1/n (siendo n la cantidad total de usuarios) de esa forma el
planificador tiene que llevar cuenta del tiempo de ejecución de los procesos y balancear el tiempo que
están utilizando el procesador para cumplir con la ecuación previa.
Procesos ligeros
Los procesos ligeros son programas en ejecución son básicamente procesos pero a diferencia de éstos
http://www.monografias.com/trabajos14/administ-procesos/administ-procesos.shtml (5 of 7)25/05/2005 13:48:10
Administración de procesos en SOs - Monografias.com
últimos que solo tienen un hilo de ejecución los primeros tienen el hilo principal más hilos secundarios o
hijos, en éste caso todos los procesos hijos comparten la información del hilo principal pero además
puede cada hilo tener su información privada.
Dentro de la información propia tenemos:
●
●
●
●
●
●
●
●
●
●
Contador de programa
Pila
Registros.
Estado del proceso ligero.
Dentro de la información compartida tenemos:
Variables globales.
Archivos abiertos
Señales
Semáforos.
Contabilidad.
Señales
Las señales son el mecanismo de comunicación que se establece entre los procesos. Para comparar se
puede decir que las señales son a los procesos lo que las interrupciones son al procesador. Cuando un
proceso recibe una señal detiene su ejecución, bifurca a la rutina del tratamiento de la señal que esta en
el mismo proceso y luego una vez finalizado sigue la ejecución en el punto que había bifurcado
anteriormente.
Las señales se pueden originar en un proceso o bien en el sistema operativo. Las señales se pueden
enviar entre procesos, solo los que tengan el mismo uid, o bien el sistema operativo puede enviarle una
señal a un proceso, por ejemplo excepciones de ejecución.
Perses Crio
Licenciatura de sistemas
[email protected]
Volver al inicio | Volver arriba
http://www.monografias.com/trabajos14/administ-procesos/administ-procesos.shtml (6 of 7)25/05/2005 13:48:10
Administración de procesos en SOs - Monografias.com
Términos y Condiciones - Haga Publicidad en Monografias.com - Contáctenos
© 1997 Lucas Morea / Sinexi S.A.
http://www.monografias.com/trabajos14/administ-procesos/administ-procesos.shtml (7 of 7)25/05/2005 13:48:10
Teoría electromagnética - Monografias.com
Regístrese
Compare
precios
Nuevos
Consulte
a los
expertos
Buscar:
Publicar
Toolbar
Foros
Ayuda
Recomendar
Buscar
Avanzada
Agregar a favoritos
Recomendar
Imprimir
Recomendamos:
Barra de
herramientas
gratuita
Bajar Trabajo
(Descargar)
Segundo Trabajo de Investigación
de Teoría electromagnética
1.
2.
3.
4.
5.
6.
7.
8.
9.
10.
11.
Introducción
Justificación
Objetivo
Corriente y Resistencia
Circuito de corriente continúa
El campo magnético
Ley de Ampére
Ley de la inducción de Faraday
Características químicas de imanes
Conclusión
Bibliografía y reseñas
Introducción
El magnetismo es uno de los aspectos del electromagnetismo, que es una de las fuerzas fundamentales de la naturaleza. Las
fuerzas magnéticas son producidas por el movimiento de partículas cargadas, como por ejemplo electrones, lo que indica la
estrecha relación entre la electricidad y el magnetismo. El marco que enlaza ambas fuerzas, es el tema de este curso, se
denomina teoría electromagnética. La manifestación más conocida del magnetismo es la fuerza de atracción o repulsión que
actúa entre los materiales magnéticos como el hierro. Sin embargo, en toda la materia se pueden observar efectos más sutiles
del magnetismo. Recientemente, estos efectos han proporcionado claves importantes para comprender la estructura atómica de
la materia.
En este segundo trabajo veremos temas nuevos en los cuales se abordan en Electromagnética II los cuales son corriente,
resistencia, circuitos de corriente continua, campo magnético, ley de ampere, la ley de la inducción de faraday características
químicas de imanes.
Justificación
La ingeniería se enfrenta a problemas cuya solución se basa en la aplicación de las leyes del electromagnetismo, de ahí la
importancia del cabal conocimiento que el profesional de ingeniería.
La palabra "electricidad" puede evocar una imagen de la complicada tecnología moderna:
http://www.monografias.com/trabajos14/electromag/electromag.shtml (1 of 53)25/05/2005 13:49:05
Teoría electromagnética - Monografias.com
Computadoras, alumbrados, motores y energía eléctrica. Pero la fuerza eléctrica desempeña un papel todavía más profundo en
nuestras vidas, ya que, según la teoría atómica, las fuerzas que mantengan unidos a los átomos y las moléculas de líquidos y
sólidos son fuerzas eléctricas.
Del mismo modo, la fuerza eléctrica es responsable de los procesos metabólicos que tienen lugar dentro de nuestros
organismos. Incluso cuando empujamos un objeto o tiramos de él, el movimiento es el resultado de la fuerza eléctrica entre las
moléculas de nuestra mano y las de dicho objeto.
En sí, el estudio de las cargas eléctricas y una de las leyes más importantes del electromagnetismo; como lo es la "Ley de
Coulomb" nos ayudan a entender el comportamiento y funcionamiento de los sistemas informáticos, además que permiten una
evolución continúa, generando procesos para la creación de nuevas arquitecturas.
Los ejemplos de las corrientes eléctricas abundan, yendo desde las grandes corrientes que constituyen los relámpagos hasta las
diminutas corrientes nerviosas que regulan nuestra actividad muscular. Estamos familiarizados con las corrientes como
consecuencia de las cargas que fluyen por los conductores sólidos (en el alambrado doméstico o en un foco eléctrico), por los
semiconductores (en los circuitos integrados), por los gases (en las lámparas fluorescentes), por ciertos líquidos (en las baterías
de los automóviles), e incluso por espacios al vacío (los tubos de imagen de TV).
Por eso es de gran importancia analizar tanto el flujo como la resistencia de los electrones al pasar por un conductor del
cualquier tipo que este sea. En nuestro caso nos va a permitir hacer cálculos y mediciones en los diferentes proyectos que
llevemos acabo.
Los cinco capítulos anteriores trataron sobre la electrostática, o sea, sobre las cargas en reposo. Con este capítulo iniciamos el
estudio de las corrientes eléctricas, es decir, de las cargas en movimiento. Los ejemplos de las corrientes eléctricas abundan,
yendo desde las grandes corrientes que constituyen los relámpagos hasta las diminutas corrientes nerviosas que regulan nuestra
actividad muscular. Estamos familiarizados con las corrientes como consecuencia de las cargas que fluyen por los conductores
sólidos (en el alambrado doméstico o en un foco eléctrico), por los semiconductores (en los circuitos integrados), por los gases
(en las lámparas fluorescentes), por ciertos líquidos (en las baterías de los automóviles), e incluso por espacios al vacío (los
tubos de imagen de TV). En escala global, las partículas cargadas atrapadas en los cinturones de radiación de Van Alíen se
mueven como oleadas de un lado a otro en la atmósfera entre los polos magnéticos Norte y Sur. En la escala del sistema solar,
corrientes enormes de protones, electrones e iones salen radialmente hacia afuera del Sol como viento solar. En la escala
galáctica, los rayos cósmicos, que son en su mayor parte protones energéticos, fluyen por la galaxia.
En los circuitos de corriente continua pueden distinguirse básicamente dos tipos de elementos, los generadores y los receptores.
Los primeros aportan al circuito la energía necesaria para mantener la corriente eléctrica, los segundos consumen energía
eléctrica y, o bien la disipan en forma de calor, como es el caso de las resistencias, o bien la convierten en otra forma de energía,
como sucede en los motores.
El flujo de una corriente continua está determinado por tres magnitudes relacionadas entre sí:
1- La diferencia de potencial en el circuito, que en ocasiones se denomina fuerza electromotriz (fem) o voltaje.
2- La intensidad de corriente.
3- La resistencia del circuito.
El manejo de circuitos tanto en serie como en paralelo no va ayudar para poder observar y analizar el comportamiento de los
mismos. Así como también el manejo de instrumentos nos viene a verificar los resultados obtenidos de un análisis antes
realizado.
En el capitulo anterior estudiamos algunas propiedades generales de la corriente y la resistencia. En este capitulo iniciamos el
estudio del comportamiento de circuitos eléctricos específicos que comprenden elementos resistivos, los cuales pueden ser
resistores individuales o bien resistencias internas de elementos del circuito, como baterías o conductores.
http://www.monografias.com/trabajos14/electromag/electromag.shtml (2 of 53)25/05/2005 13:49:05
Teoría electromagnética - Monografias.com
Nos limitamos ahora al estudio de los circuitos de corriente continua (CC), en los que la dirección de la corriente no cambia con
el tiempo. En los circuitos de CC que contienen solo baterías y resistores, la magnitud de la corriente no varía con el tiempo,
mientras que en los que contienen capacitores, la magnitud de la corriente dependerá del tiempo. Los circuitos de corriente
alterna (CA), en los que la corriente cambia periódicamente de dirección, se considerarán en el capitulo 13
Como vamos a ver en este capítulo una corriente crea un campo magnético, y un campo magnético puede crear una corriente,
de tal manera que existe una interacción entre campo magnético y campo eléctrico.
El campo magnético es la región del espacio en la que se manifiestan los fenómenos magnéticos. Estos actúan según unas
imaginarias "líneas de fuerza": éstas son el camino que sigue la fuerza magnética.
Es interesante observar el campo eléctrico que generan unos cuerpos sobre otros y como podemos calcularlo. Otro punto
importante es conocer la ley de Lorentz y saber aplicarla para problemas que se puedan presentar.
La ciencia del magnetismo tuvo su origen en la antigüedad. Se desarrollo a partir de la observación de que ciertas piedras en
estado natural se atraían entre si y también atraían a pequeños trozos de un metal, el hierro, pero no de otros metales, como el
oro o la plata.
La palabra "magnetismo" proviene del nombre de cierta región de Asia Menor (Magnesia), lugar donde se encontraron esas
piedras.
Es muy importante analizar ley de Ampère, la cual fue llamada así en honor de quién, en 1825, creo las fundaciones teóricas del
electromagnetismo, implica la descripción básica de la relación existente entre la electricidad y el magnetismo, desarrollada a
través de afirmaciones cuantitativas sobre la relación de un campo magnético con la corriente eléctrica o las variaciones de los
campos eléctricos que lo producen. Se trata de una ley que es generalmente constatable dentro del uso formal del idioma del
cálculo matemático. Sabiendo aplicar la ley de Ampère nos va a facilitar un mejor desarrollo de nuestras actividades en el ámbito
de la electrónica, además que vamos a tener otra herramienta con la cual podemos llevar acabo cálculos mas detallados
Es totalmente importante conocer el funcionamiento de la ley de Faraday, la de Lenz y las aplicaciones que tienen en el mundo
actual. Es vital conocer la FEM o cinética, como funcionan y la relación que guarda una ley de la otra.
Objetivo
El objetivo de este trabajo de investigación, es:
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
Describir la corriente eléctrica
Analizar la densidad de corriente
Estudiar la resistencia, resistividad y conductividad
La ley de ohm y una visión microscópica
Evaluar la transferencia de energía en un circuito eléctrico
Analizar los semiconductores
Estudiar la superconductividad
Describir la fuerza electromotriz.
Analizar el cálculo de la corriente en un circuito cerrado simple.
Estudiar la resistencia interna de una fuente de fem.
Describir la diferencia de potencial.
Comparar los resistores en serie y en paralelo.
Definir los circuitos de mallas múltiples.
Analizar los instrumentos de medición.
Explicar los circuitos RC y la descarga de un capacitor.
Describir el campo magnético.
Analizar la fuerza magnética sobre una carga en movimiento.
Comprender la fuerza de Lorentz.
Entender el comportamiento de las cargas circulares.
http://www.monografias.com/trabajos14/electromag/electromag.shtml (3 of 53)25/05/2005 13:49:05
Teoría electromagnética - Monografias.com
●
●
●
●
●
●
●
●
●
●
●
●
●
●
●
Estudiar el efecto Hall.
Describir la fuerza magnética sobre una corriente.
Analizar el momento de torsión de una espira de corriente.
Describir la ley de Biot-Savart.
Analizar la ley de Ampère.
Comparar los solenoides y los toroides.
La Ley de Ohm y una visión microscópica.
Estudiar el campo fuera de un solenoide.
Describir el electromagnetismo y los marcos de referencia.
Describir los experimentos de Faraday.
Analizar la ley de inducción de Faraday
Analizar la ley de inducción de Lenz.
Calcular la FEM de movimiento o cinética.
Evaluar campos eléctricos inducidos.
Describir la inducción y el movimiento relativo
Corriente y Resistencia
Corriente eléctrica
Para entender el flujo de electrones, que es la corriente eléctrica, hay que recordar las reglas de las cargas positiva y negativa.
Las cargas desiguales (+ y -) se atraen. Cargas iguales (+ y +), o (- y -) se repelen. Los electrones de un átomo tienen cargas
negativas y son atraídos por las cargas positivas. Y se mueven con facilidad de un átomo a otro.
Para crear una corriente eléctrica en un alambre de cobre, se necesita una carga positiva en un extremo y una carga negativa en
el otro.
Históricamente, se elaboraron dos teorías de la corriente eléctrica: la teoría convencional y la teoría del electrón.
La teoría convencional es la mas antigua de las dos y establece que la corriente fluye de una carga positiva a una negativa.
La teoría del electrón indica que la corriente fluye de una carga negativa a una carga positiva.
Este hecho, en principio contradictorio, se debe a razones históricas: Las teorías básicas que explican el funcionamiento de la
electricidad, son anteriores al conocimiento de la existencia de los electrones. En todas estas teorías y estudios iniciales se tomó,
http://www.monografias.com/trabajos14/electromag/electromag.shtml (4 of 53)25/05/2005 13:49:05
Teoría electromagnética - Monografias.com
por convenio (acuerdo entre todos los científicos), que este era el sentido de circulación de la corriente eléctrica.
Para crear y mantener la corriente eléctrica (movimiento de electrones), deben darse dos condiciones indispensables:
1. Que haya una fuente de electrones o dispositivo para su generación (generador), pila, batería, fotocélula, etc.
2. Que exista un camino, sin interrupción, en el exterior del generador, por el cual, circulen los electrones. A este Camino se
le conoce como conductor.
Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior
Además de estas dos condiciones indispensables, en la mayoría de los casos, existe un elemento llamado receptor, que es el
que recibe los electrones y aprovecha la energía de su movimiento para conseguir el efecto deseado: luz, calor, etc.
A todo este conjunto se le denomina circuito eléctrico. Si los conductores permanecen unidos al generador y al receptor, se dice
que es un circuito cerrado. Los electrones se desplazan por el circuito exterior desde el polo negativo del generador a su polo
positivo, y dentro del generador, desde el positivo al negativo.
Por lo contrario, cuando algún tramo del conductor se interrumpe, al no existir conexión entre el generador y el receptor, los
electrones no pueden desplazarse por el circuito y, en consecuencia, no se establece la corriente eléctrica. En este caso, se dice
que es un circuito abierto.
Si a través de cualquier superficie pasa una carga neta dq en un intervalo de tiempo di, decimos que se ha establecido una
corriente eléctrica i, en donde
Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior
El flujo de corriente en un conductor es semejante al flujo del agua en un tubo, cuando se mide el flujo del agua, se cuenta por
litros, metros cúbicos, onzas, galones de agua, que pasan por un p unto, en un cierto tiempo; por ejemplo: galones por minuto.
Cuando se mide el flujo de la corriente, se cuentan electrones que pasan por un punto, en cierto tiempo. Puesto que los
electrones son muy pequeños y se mueven con rapidez, no se cuentan uno por uno para medir la corriente.
Se usa el ampere como unidad para medirla un ampere es a un electrón, lo que un galón es a una molécula de agua. Un ampere
es igual a 6.28 trillones de electrones. Cuando esa cantidad de electrones pasan por un punto en un conductor, en un segundo,
se dice que fluye un ampere de corriente.
. La unidad de la corriente en el SI es el ampere (abreviatura A). De acuerdo con la ecuación 1, tenemos
Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior
Si bien en los metales los portadores de carga son los electrones, en los electrólitos o en los conductores gaseosos (plasmas) los
portadores también pueden ser iones positivos o negativos, o ambos.
Densidad de corriente
Es un vector que en cada punto del conductor tiene la dirección de la velocidad de arrastre y de módulo igual a la cantidad de
carga que por unidad de tiempo atraviesa la unidad de superficie normal a la velocidad de arrastre.
Una cantidad microscópica relacionada es la densidad de corriente j. que es un vector, y es característica de un punto dentro de
un conductor y no de todo el conductor. Si la corriente se distribuye uniformemente en un conductor de área de sección
transversal A, la magnitud de la densidad de corriente para todos los puntos en esa sección transversal es:
http://www.monografias.com/trabajos14/electromag/electromag.shtml (5 of 53)25/05/2005 13:49:05
Teoría electromagnética - Monografias.com
El vector j en cualquier punto está orientado en la dirección en que se movería un portador de carga positiva en ese punto. Un
electrón en ese punto se mueve en dirección -j. En la figura 3, j es un vector constante y apunta hacia la izquierda; los electrones
se arrastran hacia la derecha. En general, para una superficie en particular (que no necesita ser plana) que corte de un lado al
otro un conductor, i es el flujo del vector j sobre esa superficie, o sea
Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior
Figura 3 El campo eléctrico causa que los electrones se muevan hacia la derecha. La corriente convencional (la dirección
hipotética del flujo de la carga positiva) es hacia la izquierda. La densidad de corriente j se traza igualmente como si los
portadores de carga fuesen positivos, de modo que j y E están en la misma dirección. Donde dA es un elemento de área
superficial y la integral se lleva a cabo sobre la superficie en cuestión. Se considera que el vector dA es perpendicular al
elemento de superficie, de modo que j.dA es positiva, dando una corriente positiva i. La ecuación 4 (escrita como i = jA) es un
caso especial de la ecuación 5 en que la superficie de la integración es una sección transversal plana del conductor, y en donde j
es constante sobre esta superficie y forma un ángulo recto con ella. Sin embargo, podemos aplicar la ecuación 5 a toda
superficie a través de la cual deseemos conocer la corriente. La ecuación 5 muestra claramente que i es un escalar porque el
integrando j.dA es un escalar. E . Esta ordenación de los iones, acoplados entre sí por intensas fuerzas de origen
electromagnético, que actúan como resortes, recibe el nombre de red. El efecto total de los choques es transferir energía cinética
de los electrones en aceleración a la energía de vibración de la red. Los electrones adquieren una velocidad de arrastre vd
constante promedio en la dirección -E. Existe una estrecha analogía con una bola que cae en un campo gravitatorio uniforme g a
una velocidad terminal constante por un fluido viscoso. La fuerza gravitatoria (mg) que actúa sobre la bola al caer no aumenta la
energía cinética de la bola (la cual es constante); en cambio, se transfiere energía al fluido a causa de los choques moleculares y
se produce una pequeña elevación de temperatura. Podemos calcular la velocidad de arrastre vd de los portadores de carga en
un conductor a partir de la densidad de corriente j. La figura 3 muestra los electrones de conducción en un conductor, los cuales
se mueven hacia la derecha a una velocidad de arrastre vd que se supone constante. El número de electrones de conducción en
una longitud L del conductor es nAL, en donde n es el número de electrones de conducción por unidad de volumen y AL es el
volumen de la longitud L del conductor. Una carga de magnitud
Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior
Sale de este segmento del alambre, a través de su extremo derecho, en un tiempo t dado por
Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior
La corriente i es
Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior
Al despejar vd y recordando que j = i/A (Ec. 4), obtenemos
Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior
Puesto que, tanto vd como j son vectores, podemos reescribir la ecuación 6 como una ecuación vectorial. Seguimos nuestra
convención adoptada para la densidad de corriente positiva, lo cual significa que debemos considerar que la dirección de j es
opuesta a la de vd. El vector equivalente de la ecuación 6 es, por lo tanto,
Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior
Resistencia, resistividad y conductividad
La diferencia de potencial entre los extremos de un conductor es directamente proporcional a la intensidad que circula por él. A la
http://www.monografias.com/trabajos14/electromag/electromag.shtml (6 of 53)25/05/2005 13:49:05
Teoría electromagnética - Monografias.com
constante de proporcionalidad se le llama resistencia del conductor.
Si aplicamos la misma diferencia de potencial entre los extremos de barras de cobre y de madera geométricamente similares, las
corrientes resultantes son muy diferentes: La característica del conductor que interviene aquí es su resistencia. Determinamos la
resistencia de un conductor entre dos puntos aplicando una diferencia de potencial V entre dichos puntos y midiendo la corriente
i que resulta. La resistencia R es, entonces,
Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior
Si V está en volts y i está en amperes, la resistencia R está en volts/ampere, a los cuales se les da el nombre de ohms
(abreviatura _), de modo que
Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior
La resistencia se mide en ohmios (•)
Un conductor cuya función en un circuito sea proporcionar determinada resistencia especificada de llama resistor.
Un conductor cuya función en un circuito sea proporcionar determinada resistencia especificada de llama resistor (símbolo ). El
flujo de carga a través de un conductor es a menudo comparado con el flujo de agua a través de una tubería como resultado de
una diferencia de presión entre los extremos del tubo, establecida quizás por una bomba. La diferencia de presión es análoga a
la diferencia de potencial entre los extremos de un conductor, establecida quizás por una batería. La velocidad del flujo de agua
(digamos en litros/segundo) es análoga a la velocidad del flujo de carga (en coulombs/segundo, o en amperes). La velocidad del
flujo de agua para una diferencia de presión dada está determinada por la naturaleza de la tubería: su longitud, su sección
transversal, y los impedimentos interiores sólidos (por ejemplo, grava en la tubería). Estas características de la tubería son
análogas a la resistencia de un conductor. El ohm no es una unidad base en el SI (véase el apéndice A); no se tiene ni se sigue
ningún estándar primario del ohm. Sin embargo, la resistencia es una cantidad tan importante en la ciencia y la tecnología que se
mantiene un estándar práctico de referencia en el National Institute of Standards and Technology. Desde el 1o. de enero de
1990, esta representación del ohm (como se le conoce) se ha basado en el efecto Hall cuántico (véase la Sec. 8-4), un fenómeno
cuántico preciso y altamente reproducible que es independiente de las propiedades de cualquier material en particular.
Relacionada con la resistencia está la resistividad _, la cual es una característica de un material más bien que de un tipo de
material en particular; se define como
Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior
Las unidades de _ son las de E(V/m) dividido entre j(A/m2), lo cual es equivalente a _ . m. La figura 3 indica que E y j son
vectores, y podemos escribir la ecuación 9 en forma vectorial como:
Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior
Las ecuaciones 9 y 10 son válidas sólo para materiales isotópicos, lo cual quiere decir que sus propiedades eléctricas son las
mismas en todas las direcciones. La resistividad del cobre es de 1.7 X 10-8 _ . m; la del cuarzo fundido es de alrededor de 1016
_ . m. Pocas propiedades físicas son medibles dentro de tal gama de valores. La tabla 1 muestra las resistividades de algunos
materiales comunes. Algunas sustancias no pueden ser clasificadas fácilmente como conductores o como aisladores. Los
plásticos tienen generalmente resistividades grandes que nos conducirían a clasificarlos junto con los aisladores. Por ejemplo, en
el alambrado eléctrico doméstico se emplea normalmente el plástico como aislante. Sin embargo, al contaminar a los plásticos
con ciertos productos químicos, su conductividad puede igualar a la del cobre. Una aleación diseñada específicamente para que
tenga un pequeño valor de _. Silicio puro dopado con impurezas de fósforo a una densidad de portadores de carga de 1023 m-3.
Silicio puro dopado con impurezas de aluminio a una densidad de portadores de carga de 1023 m-3.
Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior
A veces, preferimos hablar de la conductividad _ de un material más bien que de su resistividad. Estas cantidades son
recíprocas, relacionadas por
http://www.monografias.com/trabajos14/electromag/electromag.shtml (7 of 53)25/05/2005 13:49:05
Teoría electromagnética - Monografias.com
Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior
Las unidades de o en el SI son (SZ . m''). La ecuación 10 puede expresarse en términos de la conductividad como:
Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior
Si conocemos la resistividad _ de un material, deberíamos ser capaces de calcular la resistencia R de un pedazo en particular
del material. Consideremos un conductor cilíndrico, con un área A de sección transversal y longitud L por el cual fluye una
comente estable i con una diferencia de potencial V entre sus extremos (véase la Fig. 4). Si las secciones transversales del
cilindro en cada extremo son superficies equipotenciales, el campo eléctrico y la densidad de la corriente son constantes para
todos los puntos en el cilindro y tienen los valores
Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior
Figura 4 A través de un conductor cilíndrico de longitud L y área A de sección transversal se aplica una diferencia de potencial V,
estableciendo una corriente i. La resistividad _ es
Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior
Pero V/i es la resistencia R, por lo cual
Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior
Recalcamos que la ecuación 13 se aplica únicamente a un conductor homogéneo e isotópico de sección transversal uniforme
sometido a un campo eléctrico uniforme.
La ley de OHM
La corriente fluye por un circuito eléctrico siguiendo varias leyes definidas. La ley básica del flujo de la corriente es la ley de Ohm,
así llamada en honor a su descubridor, el físico alemán George Ohm. Según la ley de Ohm, la cantidad de corriente que fluye por
un circuito formado por resistencias puras es directamente proporcional a la fuerza electromotriz aplicada al circuito, e
inversamente proporcional a la resistencia total del circuito. Esta ley suele expresarse mediante la fórmula I = V/R, siendo I la
intensidad de corriente en amperios, V la fuerza electromotriz en voltios y R la resistencia en ohmios. La ley de Ohm se aplica a
todos los circuitos eléctricos, tanto a los de corriente continua (CC) como a los de corriente alterna (CA), aunque para el análisis
de circuitos complejos y circuitos de CA deben emplearse principios adicionales que incluyen inductancias y capacitancias.
Seleccionemos una muestra de material conductor en particular, apliquemos una diferencia de potencial uniforme entre sus
extremos, y midamos la corriente resultante. Figura 6 (a) Gráfica corriente-voltaje de un material que obedece la ley de Ohm, en
este caso un resistor de 1000 _. (b) Gráfica corriente-voltaje de un material que no obedece a la ley de Ohm, en este caso un
diodo de unión pn.
Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior
Repetimos la medición para varios valores de la diferencia de potencial y graficamos los resultados, como en la figura 6a. Los
puntos experimentales caen claramente a lo largo de una línea recta, lo cual indica que la razón V/i (el inverso de la pendiente de
la línea) es una constante. La resistencia de este dispositivo es una constante, independientemente de la diferencia de potencial
a lo largo de él o de la corriente que fluye por él. Nótese que la línea se extiende a las diferencias de potencial y corrientes
negativas. En este caso, decimos que el material obedece a la ley de Ohm
Un dispositivo conductor obedece la ley de Ohm si la resistencia entre cualquier par de puntos es independiente de la magnitud y
polaridad de la diferencia de potencial aplicada.
El material o elemento de un circuito que obedece a la ley de Ohm se llama óhmico. Los circuitos electrónicos modernos
http://www.monografias.com/trabajos14/electromag/electromag.shtml (8 of 53)25/05/2005 13:49:05
Teoría electromagnética - Monografias.com
dependen también de dispositivos que no obedecen la ley de Ohm. En la figura 6b se muestra un ejemplo de la relación corrientevoltaje de un dispositivo no óhmico (un diodo de unión pn). Nótese que la corriente no aumenta linealmente con el voltaje, y
también adviértase que el dispositivo se comporta para diferencias de potencial negativas de modo muy diferente a como se
comporta para las positivas.
Recalcamos que la relación V = iR no es un enunciado de la ley de Ohm. Un conductor obedece a la ley de Ohm sólo si su
gráfica V contra i es lineal, es decir, si R es independiente de V y de i. La relación R = V_¡ sigue siendo una definición general de
la resistencia de un conductor ya sea que obedezca la ley de Ohm o no.
El equivalente microscópico de la relación V = iR es la ecuación 10, E = _j. Se dice que un material conductor obedece la ley de
Ohm si la gráfica de E contra j es lineal, o sea, si la resistividad _ es independiente de E y de j. La ley de Ohm es una propiedad
específica de ciertos materiales y no es una ley general del electromagnetismo como la ley de Gauss. Como en la siguiente
analogía.
Analogía entre la corriente y el flujo de calor (Opcional)
Existe una analogía estrecha entre el flujo de carga creado por una diferencia de potencial y el flujo de calor creado por una
diferencia de temperaturas. Consideremos una lámina gruesa eléctricamente conductora de _x de grosor y área A. Sea _V la
diferencia de potencial mantenida entre caras opuestas. La corriente i está dada por las ecuaciones 8 (i = V_R) y 13 (R = _L/A), o
sea
Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior
En el caso límite de una lámina gruesa de dx de ancho se obtiene
Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior
O, reemplazando el inverso de la resistividad por la conductividad _,
Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior
El signo menos en la ecuación 17 indica que la carga positiva fluye en la dirección de V decreciente; es decir, dq/dt es positiva
cuando db/dx es negativa. La ecuación análoga para el flujo de calor es
Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior
que muestra que k, la conductividad térmica, corresponde a _, y dT_dx, el gradiente de la temperatura, corresponde a dV_dx, el
gradiente del potencial. Para los metales puros existe una analogía matemática más que formal entre las ecuaciones 17 y 18.
Tanto la energía térmica como la carga son transportadas por los electrones libres de tales metales; empíricamente, un buen
conductor eléctrico (digamos, la plata) es también un buen conductor térmico, y la conductividad eléctrica ase relaciona
directamente con la conductividad térmica k.
La ley de OHM: una visión microscópica
La ley tiene una forma muy sencilla, y resulta curioso que muchos materiales la obedezcan tan bien, mientras que otros
materiales no la obedecen en absoluto. Veamos si podemos entender por qué los metales obedecen la ley de Ohm, la cual
escribiremos (véase la Ec. 10) en la forma microscópica
E = _j.
En un metal, los electrones de valenciano están ligados a los átomos individuales sino que tienen libertad de moverse dentro de
la red y se llaman electrones de conducción.
En el cobre existe uno de estos electrones por átomo, permaneciendo los otros 28 ligados al núcleo de cobre para formar
http://www.monografias.com/trabajos14/electromag/electromag.shtml (9 of 53)25/05/2005 13:49:05
Teoría electromagnética - Monografias.com
corazas iónicas
La teoría de la conducción eléctrica en los metales se basa a menudo en el modelo del electrón libre, en el cual (como una
primera aproximación) se asume que los electrones de conducción se mueven libremente por el material conductor, en forma
parecida a como se mueven las moléculas de gas dentro de un recipiente cerrado.
De hecho, el Conjunto de electrones de conducción suele llamarse gas de electrones. Sin embargo, como veremos, no podemos
olvidar el efecto de las corazas iónicas sobre este "gas".
En la distribución cuántica los electrones que contribuyen sin dificultad a la conducción eléctrica están concentrados en un
intervalo muy estrecho de energías cinéticas y, por lo tanto, de velocidades.
Con una buena aproximación, podemos suponer que los electrones se mueven a una velocidad promedio uniforme. En el caso
del cobre, esta velocidad es de alrededor de = 1.6 x 106 m/s. Además, mientras la velocidad maxwelliana promedio depende
mucho de la temperatura, la velocidad efectiva obtenida de la distribución cuántica es casi independiente de la temperatura.
En ausencia de un campo eléctrico, los electrones se mueven aleatoriamente, otra vez al igual que las moléculas de gas dentro
de un recipiente cerrado. Ocasionalmente, un electrón choca con una coraza iónica de la red, sufriendo un cambio súbito de
dirección en el proceso. Así como lo hicimos en el caso de las colisiones entre las moléculas de un gas, podemos asociar una
trayectoria libre media _. y un tiempo libre medio _ a la distancia y tiempo promedio entre las colisiones. (Las colisiones entre los
propios electrones son muy poco probables y no afectan a las propiedades eléctricas del conductor.)
En un cristal metálico ideal (que no contenga defectos ni impurezas) a 0 K, no ocurrirían colisiones electrón-red, de acuerdo con
las predicciones de la física cuántica; esto es, como en los cristales ideales. Las colisiones ocurren en los cristales propiamente
dichos porque
(1) las corazas iónicas a cualquier temperatura T están vibrando alrededor de sus posiciones de equilibrio de modo aleatorio;
(2) pueden estar presentes impurezas, o sea, átomos extraños;
(3) el cristal puede contener imperfecciones de la red, como átomos faltantes y átomos desplazados.
Por consiguiente, la resistividad de un metal puede incrementarse (1) si se eleva su temperatura, (2) si se agregan pequeñas
cantidades de impurezas, y (3) sometiéndolo a un gran esfuerzo, como al hacerlo pasar por un dado o molde, para aumentar el
número de imperfecciones de la red.
Cuando aplicamos un campo eléctrico a un metal, los electrones modifican su movimiento aleatorio de tal manera que se
arrastran lentamente, en la dirección opuesta a la del campo, con una velocidad de arrastre promedio Vd Esta velocidad de
arrastre es mucho menor (por un factor de algo como 1010; véase el problema muestra 2) que la velocidad promedio efectiva
Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior
Figura 7 Los segmentos de línea sólida muestran un electrón que se mueve de x a y, experimentando seis colisiones en su
camino. Las líneas de trazos muestran lo que hubiera sido su trayectoria en presencia de un campo eléctrico aplicado E. Nótese
el arrastre gradual pero uniforme en la dirección de -E. (En realidad, las líneas de trazos deberían estar ligeramente curvas para
representar las trayectorias parabólicas que los electrones describen entre sus colisiones.)
La figura 7 da un indicio de la relación entre estas dos velocidades. Las líneas sólidas sugieren una trayectoria aleatoria posible
seguida por un electrón en ausencia de un campo aplicado; el electrón continúa de x a y, experimentando seis colisiones en el
camino. Las líneas de trazos muestran cómo hubiera ocurrido este mismo proceso si se hubiese aplicado un campo eléctrico E.
Nótese que el electrón se arrastra uniformemente hacia la derecha, terminando en y_ más bien que en y. Al preparar la figura 7
se supuso que la velocidad de arrastre Vd es de 0.02 en realidad, es más parecida a 10-10 de modo que el arrastre que se
muestra en la figura está muy exagerado.
http://www.monografias.com/trabajos14/electromag/electromag.shtml (10 of 53)25/05/2005 13:49:05
Teoría electromagnética - Monografias.com
Transferencia de energía de un circuito eléctrico
La figura 8 muestra un circuito que consta de una batería B conectada a una "caja negra". Existe una corriente estable i en los
alambres de conexión, y existe una diferencia de potencial estable Vab entre las terminales a y b. La caja puede contener un
resistor, un motor, o un acumulador, entre otras cosas.
Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior
Una batería B crea una corriente i en un circuito que contiene una "caja negra", es decir, una caja cuyo contenido se desconoce.
La terminal a, conectada a la terminal positiva de la botería, está a un potencial mayor que el de la terminal b. La energía
potencial de una carga dq que se mueve a través de la caja de a a b disminuye en dq Vab
El principio de conservación de la energía nos indica que tata energía se transfiere en la caja de energía eléctrica a alguna otra
forma. La forma de esta energía dependerá de lo que haya en la caja.
En un tiempo dt la energía dU transferida dentro de la caja es, entonces,
Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior
Hallamos la cantidad de energía transferida o la potencia P de acuerdo con
Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior
Si el dispositivo que contiene la caja es un motor, la energía aparece en gran parte como trabajo mecánico realizado por el
motor; si el dispositivo es un acumulador que esté siendo cargado, la energía aparece en gran parte como energía química
almacenada en esta segunda batería.
Si el dispositivo es un resistor, la energía aparece en el resistor como una energía interna (asociada con el movimiento atómico y
observada, quizás, como un aumento en la temperatura). Para ver esto, consideremos una piedra de masa m que cae desde una
altura h. Su energía potencial gravitatoria disminuye en mgh. Si la piedra cae en el vacío o -para propósitos prácticos- en el aire,
esta energía se transforma en energía cinética de la piedra. Sin embargo, si la piedra cae en las profundidades del océano, su
http://www.monografias.com/trabajos14/electromag/electromag.shtml (11 of 53)25/05/2005 13:49:05
Teoría electromagnética - Monografias.com
velocidad con el tiempo será constante, lo cual significa que la energía cinética ya no aumenta. La energía potencial disponible
en cada instante mientras cae la piedra aparece entonces como energía interna de la piedra y del agua circundante. Lo que hace
que la piedra deje de acelerar es la resistencia viscosa, semejante a la fricción, del agua sobre la superficie de la piedra, y es en
esta superficie donde ocurre la transformación en energía interna.
El recorrido de un electrón a través de un resistor es muy parecido al de la piedra a través del agua. En promedio, los electrones
viajan a una velocidad de arrastre vd constante, de modo que no ganan energía cinética. Pierden energía eléctrica en las
colisiones con los átomos del resistor. Como resultado, las amplitudes de las vibraciones atómicas aumentan; en una escala
macroscópica esto corresponde a un aumento de temperatura. Por consiguiente, puede haber un flujo de energía saliendo del
resistor como calor, si el medio ambiente está a una temperatura menor que la del resistor.
Para un resistor podemos combinar las ecuaciones 8 (R = V/i) y 21 y obtener, ya sea
Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior
o
Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior
Nótese que la ecuación 21 se aplica a toda clase de transferencia de energía eléctrica; las ecuaciones 22 y 23 se aplican
únicamente a la transferencia de energía eléctrica en energía interna en un resistor. Las ecuaciones 22 y 23 se conocen como la
ley de Joule, y la energía correspondiente transferida al resistor o a sus alrededores se llama calentamiento de Joule. Esta ley es
una manera particular de escribir el principio de conservación de la energía para el caso especial en que se transfiera energía
eléctrica en energía interna en un resistor. La unidad de potencia que se deduce de la ecuación 21 es el volt . ampere. Podemos
demostrar que el volt . ampere es equivalente al watt como una unidad de potencia usando las definiciones del volt (joule/
coulomb) y del ampere (coulomb/segundo):
Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior
Ya hemos presentado anteriormente al watt como una unidad de potencia.
Semiconductores
Un semiconductor es un componente que no es directamente un conductor de corriente, pero tampoco es un aislante. En un
conductor la corriente es debida al movimiento de las cargas negativas (electrones). En los semiconductores se producen
corrientes producidas tanto por el movimiento de electrones como de las cargas positivas (huecos). Los semiconductores son
aquellos elementos pertenecientes al grupo IV de la Tabla Periódica (Silicio, Germanio, etc.). Generalmente a estos se le
introducen átomos de otros elementos, denominados impurezas, de forma que la corriente se deba primordialmente a los
electrones o a los huecos, dependiendo de la impureza introducida. Otra característica que los diferencia se refiere a su
resistividad, estando ésta comprendida entre la de los metales y la de los aislantes.
Los semiconductores son muy importantes en electrónica ya que gracias a ellos contamos hoy son diversos componentes de
gran utilidad en electrónica, tales como diodos, transistores, tiristores, triac, etc
Para describir a nivel microscópico las propiedades de los conductores, los aisladores y los semiconductores se requiere la
aplicación de los principios de la física cuántica. Sin embargo, podemos obtener una comprensión cualitativa de las diferencias
entre los conductores, los aisladores y los semiconductores remitiéndonos a la figura 9, la cual muestra los estados de energía
que pueden representar típicamente a los electrones en los conductores, los aisladores y los semiconductores.
Los electrones tienen energías permitidas que son discretas o cuantizadas, pero que se agrupan en bandas. Dentro de las
bandas, los estados de energía permitida, que están tan juntos entre sí que son virtualmente continuos, pueden estar ocupados
(electrones que tienen la energía permitida) o desocupados (no hay electrones que tengan esa energía). Entre las bandas existe
una banda de energía, la cual no contiene estados que un electrón individual pueda ocupar. Un electrón puede saltar de un
estado ocupado a otro desocupado. A temperaturas ordinarias, la distribución de la energía interna proporciona la fuente de la
energía necesaria para que los electrones salten a estados más elevados.
http://www.monografias.com/trabajos14/electromag/electromag.shtml (12 of 53)25/05/2005 13:49:05
Teoría electromagnética - Monografias.com
Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior
Figura 9 (a) Bandas de energía características de un conductor. Abajo de la línea de trazos, casi todos los estados de energía
están ocupados, mientras que casi todos los estados por arriba de esta línea están vacíos. Los electrones pueden saltar
fácilmente de los estados ocupados a los estados vacíos, como se indica por medio de las flechas. (b) En un semiconductor, la
línea divisoria entre los estados ocupado y vacío se presenta en la banda prohibida. La conductividad eléctrica está determinada,
en parte, por el número de electrones que saltan a ocupar estados en la banda de conducción. (c) Las bandas de energía en un
aislador se parecen a las de un semiconductor; la diferencia principal está en el ancho de la banda prohibida de energía. A
temperaturas ordinarias, no existe una probabilidad de que un electrón salte a los estados vacíos en la banda de conducción.
La figura 9a ilustra las bandas de energía que representan a un conductor. La banda de valencia, que es la banda más elevada
ocupada por electrones, está ocupada sólo parcialmente, de modo que los electrones tienen muchos estados vacíos a los cuales
pueden saltar fácilmente. Un campo eléctrico aplicado puede inducir a los electrones a realizar estos pequeños saltos y contribuir
a una corriente en el material. Esta facilidad de movimiento de los electrones es lo que hace del material un conductor.
La figura 9b muestra las bandas que pueden caracterizar a un semiconductor, como el silicio. A una temperatura muy baja, la
banda de valencia está completamente ocupada, y la banda de arriba (de conducción) está completamente vacía. A
temperaturas ordinarias, existe una pequeña probabilidad de que un electrón de uno de los estados ocupados en la linda inferior
tenga la energía suficiente para saltar la banda prohibida a uno de los estados vatios en la banda superior. La probabilidad de tal
salto depende de la distribución de energías, la cual, incluye al factor e-_E/_T en donde _E es la banda prohibida. Si _E= 0.7 eV
(típica del silicio) y kT = 0.025 eV a temperatura ambiente, el factor exponencial es de 7 x 10-13. Si bien éste es un número
pequeño, existen tantos electrones disponibles en un trozo de silicio (alrededor de 1023 por gramo) que un número razonable
(quizás 1011 por gramo) están en la banda superior. En esta banda pueden moverse fácilmente desde el estado ocupado al
estado vacío y contribuir a la capacidad de un semiconductor de transportar una carga eléctrica. (En el proceso de saltar a la
banda de conducción, los electrones dejan lugares vacantes o huecos en la banda de valencia. Otros electrones en la banda de
valencia pueden saltar a aquellos espacios vacantes, contribuyendo también, por lo tanto, a la conductividad.)
Otra diferencia entre los conductores y los semiconductores está en sus coeficientes de temperatura de la resistividad. Los
metales no son conductores perfectos debido a las desviaciones de la estructura cristalina perfecta, como la que podría ser
causada por la presencia de impurezas o defectos en la red. La vibración de las corazas de iones alrededor de sus posiciones de
equilibrio en la red es un factor esencial en la resistividad de los metales. Puesto que este efecto aumenta con la temperatura, la
resistividad de los metales aumenta con la temperatura. El mismo efecto naturalmente también ocurre en los semiconductores,
pero queda aminorado por un efecto mucho mayor que disminuye la resistividad al aumentar la temperatura. Conforme aumenta
la temperatura, más electrones adquieren la energía suficiente para ser excitados a través de la banda prohibida de energías
hacia la banda de conducción, aumentando, en consecuencia, la conductividad y disminuyendo la resistividad. Como lo muestra
la tabla 1, el silicio (en contraste con los metales listados) tiene un coeficiente de temperatura de resistividad negativo.
La figura 9c muestra bandas de energía típicas de un aislador, tales como el cloruro de sodio. La estructura de bandas es muy
parecida a la de un semiconductor, con la banda de valencia ocupada y la banda de conducción vacía. La diferencia principal
radica en el ancho de la banda prohibida de energías, el cual es del orden de 2eV o más en el caso de un aislador (comparado
con quizás 0.7eV en un semiconductor). Esta diferencia relativamente pequeña hace una diferencia enorme en el factor
exponencial que da la probabilidad de que un electrón adquiera la energía suficiente para saltar a través de la banda prohibida.
En un aislador a temperatura ambiente, el factor e-_E/_T es típicamente de 2 x 10-35, de modo que en un gramo de material
(1023 átomos) existe una probabilidad insignificante a temperaturas ordinarias de que incluso un solo electrón esté en la banda
de conducción en donde se movería libremente. Por lo tanto, en los aisladores todos los electrones están confinados en la banda
de valencia, en donde no hay estados vacíos por ocupar y por consiguiente no están libres en absoluto de viajar por el material.
Nótese que la diferencia principal entre los semiconductores y los aisladores radica en la relación entre la banda prohibida de
energías y kT. A temperatura muy baja, un semiconductor se convierte en aislador, mientras que á temperaturas lo
suficientemente elevadas (que estén, sin embargo, por encima del punto en el cual el material se evapora), un aislador podría
convenirse en un semiconductor.
Superconductividad
http://www.monografias.com/trabajos14/electromag/electromag.shtml (13 of 53)25/05/2005 13:49:05
Teoría electromagnética - Monografias.com
Algunos metales presentan resistividad cero a temperaturas por debajo de cierto valor denominado temperatura crítica. La
superconductividad implica resistencia cero y por lo tanto la persistencia de la corriente aunque no haya campo eléctrico en el
conductor. La figura se muestra la brusca caída de la resistencia del mercurio a 4,2 K. Recientemente se han conseguido
aleaciones que presentan superconductividad a temperaturas mayores, del orden de los 90 K.
La resistividad de un superconductor no es simplemente muy pequeña; ¡es de cero! Si se establece una corriente en un material
superconductor, persistiría para siempre, aun cuando no hubiese un campo eléctrico presente.
La disponibilidad de los materiales superconductores sugiere inmediatamente un número de aplicaciones.
(1) La energía puede ser transportada y almacenada en alambres eléctricos sin pérdidas resistivas.
Esto es, una compañía generadora de energía eléctrica puede producir energía eléctrica cuando la demanda es ligera, quizás
durante la noche, y almacenar la corriente en un anillo de superconducción. La energía eléctrica puede entonces suministrarse
durante las horas pico de demanda al día siguiente. Este tipo de anillo funciona hoy día en Tacoma, Washington, EUA, para
almacenar 5 MW de potencia. En el laboratorio, en anillos de prueba más pequeños, se han almacenado corrientes durante
varios años sin presentar ninguna reducción.
(2) Los electroimanes superconductores pueden producir campos Magnéticos mayores que los electroimanes convencionales.
un alambre por el que fluye corriente genera un campo magnético en el espacio circundante, al igual que una carga eléctrica crea
un campo eléctrico. Con alambres superconductores, pueden producirse corrientes más grandes y por lo tanto campos
magnéticos más intensos. Entre las aplicaciones de esta tecnología se cuentan los trenes elevados magnéticamente y los
imanes desviadores de haces de partículas en los grandes aceleradores corno el Fermilab
(3) Los componentes superconductores en circuitos electrónicos no generarían un calentamiento Joule y permitirían una mayor
miniaturización de los circuitos.
Las computadoras centrales (mainframe) de la próxima generación emplearán componentes de superconducción
La superconductividad no debe considerarse meramente como una mejora en la conductividad de los materiales que de por sí ya
son buenos conductores. Los mejores conductores a temperatura ambiente (el cobre, la plata y el oro) no muestran
superconductividad alguna en absoluto.
http://www.monografias.com/trabajos14/electromag/electromag.shtml (14 of 53)25/05/2005 13:49:05
Teoría electromagnética - Monografias.com
Una comprensión de esta distinción puede encontrarse en la base microscópica de la superconductividad. Los materiales
ordinarios son buenos conductores si tienen electrones libres que puedan moverse fácilmente por la red. Los átomos del cobre,
de la plata y del oro tienen un solo electrón de valencia débilmente ligado que participa en el gas de electrones que penetra por
la red. De acuerdo con una de las teorías, los superconductores dependen del movimiento de pares de electrones altamente
correlacionados. Puesto que los electrones, generalmente, no tienden a formar pares, se requiere una circunstancia especial:
dos electrones interactúan fuertemente con la red y de este modo, entre sí. La situación es un tanto parecida a la de dos lanchas
en n lago, donde el oleaje formado por el movimiento de una de las lanchas provoca que la otra se mueva, aun cuando la
primera lancha no ejerciese fuerza alguna directamente sobre la segunda. Así pues, un buen conductor ordinario depende de
que se tengan electrones que interactúen débilmente con la red, mientras que un superconductor parece requerir electrones que
interactúan fuertemente con la red.
2. Circuito de corriente continúa
Fuerza electromotriz
Una fuente de Fuerza electromotriz (fem), es cualquier dispositivo (batería o generador, por ejemplo) que produce un campo
eléctrico y que por lo tanto puede originar un movimiento en las cargas por un circuito. Una fuente fem puede ser considerada
como una bomba de carga.
Cuando un potencial es definido, la fuente mueve cargas hacia arriba hasta un potencial más alto.
La fem, e, describe el trabajo realizado por unidad de carga y, por ello, la unidad de fem del SI es el volt.
Considerando el circuito que se muestra en la figura, que consta de una batería conectada a un resistor. Supongamos que los
alambres de conexión no tienen resistencia. La terminal positiva de la batería está a un potencial más alto que la terminal
negativa. Si ignoramos la resistencia interna de la batería, entonces la diferencia de potencial a través de ella (el voltaje de la
terminal) es igual a su fem. Sin embargo, debido a que una batería real siempre tiene alguna resistencia interna r, el voltaje de
las terminales no es igual a la fem.
http://www.monografias.com/trabajos14/electromag/electromag.shtml (15 of 53)25/05/2005 13:49:05
Teoría electromagnética - Monografias.com
Cuando se ha establecido una corriente uniforme en el circuito de la figura 1a, una carga dq pasa por cualquier sección
transversal del circuito en el tiempo dt. En particular, esta carga entra a la fuente de fem e por su extremo de potencial bajo y
sale por el extremo de potencial alto. La fuente debe realizar una cantidad de trabajo dW sobre los portadores de carga (positiva)
para forzarlos a ir hacia el punto de potencial más alto.
La fem e de la fuente se define como el trabajo por unidad de carga, o sea
La unidad de fem es el joule/coulomb, que es el volt (abreviatura V): 1 volt = 1 joule/coulomb.Nótese en la ecuación 1 que la
fuerza electromotriz no es realmente una fuerza; es decir, no la medimos en newtons. Su nombre se debe a que así se
consideraba en sus primeros tiempos.
El trabajo realizado por una fuente de fem sobre los portadores de la carga en su interior debe provenir de una fuente de energía
dentro de ella. La fuente de energía puede ser química (como en una batería o en una celda de combustible), mecánica (un
generador), térmica (una termopila), o radiante (una celda solar). Podemos describir a una fuente de fem como un dispositivo por
el que alguna otra forma de energía se transforma en energía eléctrica. La energía suministrada por la fuente de fem en la figura
1a está almacenada en campos eléctricos y magnéticos* que rodean al circuito. Esta energía almacenada no aumenta porque se
convierte en energía interna en e] resistor y se disipa como calentamiento de Joule, a la misma velocidad con que se abastece.
Los campos eléctricos y magnéticos desempeñan el papel de intermediarios en el proceso de transferencia de energía, actuando
como depósitos de almacenamiento.
La figura 1b muestra una analogía gravitatoria de la figura 1a. En la ilustración superior la fuente de fem realiza un trabajo sobre
los partadores de la carga.
Esta energía almacenada en el trayecto como energía del campo electromagnético, aparece luego como energía interna en e]
resistor R. En la parte inferior de la figura la persona, al levantar las bolas de boliche desde el piso hasta la estantería, efectúa un
trabajo sobre ellas. Esta energía se alacena en el trayecto como energía del campo gravitatorio. Las bolas ruedan lenta y
uniformemente a lo largo de la estantería, cayendo por el extremo derecho dentro de un cilindro lleno de aceite viscoso. Se
hunden hasta el fondo con una velocidad esencialmente constante, salen por un mecanismo que no se ilustra aquí, ruedan de
regreso a lo largo del suelo hacia la izquierda. La energía proporcionada al sistema por la persona aparece al final como energía
interna en el fluido viscoso, dando como resultado una elevación de la temperatura. La energía abastecida por la persona
proviene de la energía interna (química). La circulación de las cargas en la figura la cesa con el tiempo si la fuente de fem agota
su energía; la circulación de las bolas de boliche en la figura 1b se detiene si a la persona se le agota su energía.
Cálculo de la corriente en un circuito cerrado simple
En el calculo de la corriente en un circuito cerrado simple, consideramos un circuito de una sola malla, con en la figura anterior
que contiene una fuente de fem y resistor r.
Para calcular la corriente (amperaje) se puede utilizar esta ecuación:
Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior
Al pasar por el resistor, hay un cambio de -iR en el potencial. El signo menos muestra que la parte superior del resistor tiene un
potencial más alto que el de la parte inferior, lo cual debe ser así, porque los portadores de carga positiva se mueven por sí
mismos desde un potencial alto a uno bajo.
Según recorremos la batería de abajo arriba, existe un incremento de potencial igual a + x; , porque la batería realiza un trabajo
(positivo) sobre los portadores de carga; es decir, los mueve desde un punto de potencial bajo a otro de potencial alto. Al realizar
la suma algebraica de los cambios de potencial hasta el punto del potencial inicial Va debe damos el valor final idéntico a Va, O
sea
http://www.monografias.com/trabajos14/electromag/electromag.shtml (16 of 53)25/05/2005 13:49:05
Teoría electromagnética - Monografias.com
Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior
Escribimos esto así:
Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior
lo cual es independiente del valor de Va y afirma explícitamente que la suma algebraica de los cambios del potencial en el
recorrido completo del circuito es cero. Esta relación conduce directamente a la ecuación 2.
Estas dos maneras de determinar la corriente en circuitos de una sola malla, una basada en la conservación de la energía y la
otra en el concepto de potencial, son completamente equivalentes, porque las diferencias de potencial están definidas en
términos del trabajo y de la energía.
Con el fin de preparamos para el estudio de circuitos más complejos, examinaremos las reglas para hallar las diferencias de
potencial; estas reglas se deducen del análisis anterior. No se pretende que el estudiante las aprenda de memoria, sino que las
entienda a fondo, de modo que le resulte trivial deducirlas en cada aplicación.
I. Si un resistor se recorre en la dirección de la corriente, el cambio en el potencial es -iR; en la dirección opuesta es +iR.
2. Si una fuente de fem se recorre en la dirección de la fem (la dirección de la flecha, o de la terminal negativa a la terminal
positiva), el cambio en el potencial es +x; en la dirección opuesta es -x .
Por último, recuerde que siempre nos referiremos a la dirección de la corriente como la dirección del flujo de las cargas positivas,
opuesto a la dirección real del flujo de los electrones.
Resistencia interna de una fuente de fem
Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior
Analizando la figura (a) de este circuito de una sola malla, vemos que contiene una sola fuente de fem Con una resistencia
interna r. en la figura (b) se dibuja el circuito con las componentes a lo largo de una línea recta en la parte superior.
En la parte inferior se muestran 10s cambios de potencial encontrados al recorrer el circuito en el sentido de las manecillas del
reloj, comenzando en el punto b. La figura 1a muestra un circuito de una sola malla, el cual pone de relieve que todas las fuentes
de fem tienen una resistencia interna r intrínseca. Esta resistencia no puede suprimirse (aunque por lo general nos gustaría
hacerlo) porque es una parte inherente al sistema. En la figura se muestra la resistencia interna r y la fem por separado, si bien
ocupan realmente la misma región del espacio.
Podemos aplicar las reglas del circuito cerrado comenzando en cualquier punto del circuito. Comenzando en b y yendo en el
sentido de las manecillas del reloj, obtenemos
Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior
o sea
Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior
Compárense estas ecuaciones con la figura 3b, la cual muestra gráficamente los cambios en el potencial. Al escribir estas
ecuaciones, nótese que hemos recorrido r y R en la dirección de la corriente y _ en la dirección de la fem. Se tendrá la misma
ecuación si comenzamos en cualquier otro punto del circuito o si recorremos el circuito en dirección contraria al sentido de giro
de las manecillas del reloj. Al despejar para i obtenemos
Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior
http://www.monografias.com/trabajos14/electromag/electromag.shtml (17 of 53)25/05/2005 13:49:05
Teoría electromagnética - Monografias.com
Adviértase que la resistencia interna r reduce la corriente que la fem puede suministrar al circuito externo.
Diferencia de potencial
Como hemos dicho, para que los electrones se muevan por el conductor, es decir, para que exista una intensidad de corriente
eléctrica, es necesario que algo impulse a los electrones.
Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior
Pues bien, la diferencia de potencial representa el "impulso"
que llevan las cargas (los electrones) por el conductor y los
aparatos que producen esa diferencia de potencial son los
generadores.
Símbolo de un generador
La diferencia de potencial se representa con la letra V. Su unidad de medida es el voltio, representado como V también.
Esta unidad se llama así en honor del físico italiano Alessandro Volta (1745-1827), quien experimentó sobre los fenómenos
eléctricos, y construyó la primera batería (pila) eléctrica.
Para medir la diferencia de potencial que existe entre dos puntos de un conductor se usa un aparato llamado voltímetro. Este
aparato se conecta entre dos puntos del conductor, es decir se conecta en paralelo.
Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior En este circuito la V, que representa al voltímetro, está
en paralelo
Es decir la "diferencia de alturas" o diferencia entre los potenciales de dos puntos entre los cuales se va a mover nuestra carga.
Así pues, se define la diferencia de potencial (d.d.p.) entre dos puntos como el trabajo que realiza la unidad de carga (el
culombio) al caer desde el potencial más alto al más bajo.
Los potenciales y diferencias de potencial, en el Sistema Internacional, se expresan en VOLTIOS.
Divisores más usuales del voltio:
Voltios
milivoltios
microvoltios
1 Voltio (V) =
1
103
106
1 milivoltio(mV) =
10-3
1
103
1 microvoltio(mV) =
10-6
10-3
1
El múltiplo más usual es el Kilovoltio. 1 KV = 1.000 V.
A la diferencia de potencial también se le suele llamar VOLTAJE o TENSION.
para hallar la diferencia de potencial entre dos puntos cualesquiera de un circuito, comenzamos en un punto, viajamos por el
circuito hasta el otro y sumamos algebraicamente los cambios encontrados en el potencial. Esta suma algebraica es la diferencia
de potencial entre los puntos. Este procedimiento es similar al de calcular la corriente en un circuito cerrado, excepto que aquí las
diferencias de potencial están sumadas sólo en parte del circuito y no en todo el circuito.
Resistores en serie y paralelo
Al igual que en el caso de los capacitores, los resistores ocurren a menudo en los circuitos en varias combinaciones. Al analizar
tales circuitos, es conveniente reemplazar la combinación de resistores con una sola resistencia equivalente Req, cuyo valor se
http://www.monografias.com/trabajos14/electromag/electromag.shtml (18 of 53)25/05/2005 13:49:05
Teoría electromagnética - Monografias.com
elige de tal modo que la operación del circuito no cambie.
Resistores conectados en paralelo
Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior
Según la definición de combinación en paralelo de los elementos de un circuito; podemos recorrer la combinación cruzando sólo
uno de los elementos; aparece la misma diferencia de potencial V entre cada elemento, y el flujo de carga se comparte entre los
elementos.
La figura 5 muestra dos resistores conectados en paralelo. Buscamos la resistencia equivalente entre los puntos a y b.
Supongamos que conectamos una batería (u otra fuente de fem) que mantenga una diferencia de potencial V entre los extremos
de cada resistor es V. La corriente en cada uno de los resistores es,
i1 = V/R1 e i2 =V/R2 (5)
De acuerdo con las propiedades de un circuito en paralelo, la corriente total i debe compartirse entre las ramas, de modo que
i = i1 +i2 (6)
Si quisiéramos reemplazar la combinación en paralelo por una sola resistencia equivalente Req, debería fluir la misma cantidad
de corriente i (porque el reemplazo no debe cambiar la operación del circuito). La corriente es, entonces,
i = V/Req (7)
Al sustituir las ecuaciones 5 y 7 en la ecuación 6, obtenemos
V=V+V.
Req R1 R2
o sea
1 = 1 + 1 . (8)
Req R1 R2
Para hallar la resistencia equivalente de una combinación en paralelo de más de dos resistores,
1 = å 1 (combinación en paralelo) (9)
Req n Rn
Esto es, para hallar la resistencia equivalente de una combinación en paralelo, sumamos los recíprocos de las resistencias
individuales y tomamos el recíproco de la suma resultante. Nótese que Req es siempre menor que la resistencia mínima en la
combinación en paralelo –sumando más trayectorias para la corriente, obtenemos más corriente para la misma diferencial de
potencial.
En el caso especial de dos resistores en paralelo, la ecuación 8 puede escribirse
http://www.monografias.com/trabajos14/electromag/electromag.shtml (19 of 53)25/05/2005 13:49:05
Teoría electromagnética - Monografias.com
Req = R1R2 , (10)
R1 + R2
O como el producto de las dos resistencias dividido entre su suma.
Resistores conectados en serie
Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior
La figura muestra dos resistores conectados en serie. Las propiedades de una combinación en serie de los elementos de un
circuito, nos dicen que para viajar a través de la combinación, debemos recorrer todos los elementos en sucesión; una batería
conectada entre la combinación da (en general) una caída de diferencia de potencial en cada elemento diferente, y se mantiene
la misma corriente en cada elemento.
Supongamos que una batería de diferencia de potencial V esté conectada entre los puntos a y b de la figura 6. Se crea una
corriente i en la combinación y en cada uno de los resistores. Las diferencias de potencial en los resistores son
V1 = iR1 y V2 = iR2 (11)
La suma de estas diferencias de potencial debe dar la diferencia de potencial entre los puntos a y b mantenida por la batería, o
sea
V = V1 + V2 (12)
Si reemplazamos la combinación por su resistencia equivalente Req, se establecerá la misma corriente i, de modo que
V = iReq (13)
Al combinar las ecuaciones 11, 12 y 13, obtenemos
i Req = iR1 +iR2
o sea
Req = R1 + R2
Extendiendo este resultado a una combinación en serie de cualquier número de resistores, obtenemos
Req = å Rn (combinación en serie) (15)
Esto es, para hallar la resistencia equivalente de una combinación en serie, hallamos la suma algebraica de los resistores
individuales. Nótese que la resistencia equivalente de una combinación en serie es siempre mayor que la máxima resistencia en
la serie –añadir más resistores en la serie significa que se obtiene menos corriente para la misma diferencia de potencial.
Circuito de mallas múltiples
La figura 9 muestra un circuito que contiene más de una malla. Para simplificar, hemos despreciado las resistencias internas de
las baterías. Cuando analizamos a tales circuitos es útil considerar sus nodos y ramas. En un circuito de mallas múltiples como el
de la figura 9, el nodo es un punto del circuito en el que se reúnen tres o más segmentos de alambre. Existen dos nodos en el
http://www.monografias.com/trabajos14/electromag/electromag.shtml (20 of 53)25/05/2005 13:49:05
Teoría electromagnética - Monografias.com
circuito de la figura 9, en b y d. (Los puntos a y c en la figura 9 no son nodos, porque sólo se reúnen dos segmentos de alambre
en esos puntos).
Una rama es cualquier trayectoria del circuito que comienza en un nodo y continúa a lo largo del circuito hasta el siguiente nodo.
Existen tres ramas en el circuito de la figura 9; esto es, existen tres trayectorias que conectan a los nodos b y d: la rama izquierda
bad, la rama derecha bcd y la rama central bd.
En circuitos de una sola malla, como los de las figuras 3 y 4, existe únicamente una corriente por determinar.
Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior
Existen diversos métodos para analizar circuitos; uno de los más sencillos, aunque laborioso, es el método de las mallas que
consiste en estudiar cada una de las mallas que componen el circuito considerando la influencia de otras mallas en las ramas
comunes a dos o más mallas.
Antes de entrar en el proceso de cálculo debemos distinguir entre las corrientes de rama, que son las corrientes que atraviesan
cada una de las ramas, y las corrientes de malla, que son las corrientes que recorren cada malla; su valor coincide con el de la
corriente de rama en las ramas no comunes a otras mallas y, en las ramas comunes a otras mallas, su suma vectorial con el
resto de las corrientes de malla comunes da la corriente de la rama estudiada.
Pasos a seguir:
1) Se dibuja el esquema con todos sus elementos
2) Identificadas las mallas, se asigna un sentido a las corrientes de malla. Habitualmente se les atribuye el sentido de giro de las
agujas del reloj.
3) Se aplica la ley de las tensiones de Kirchhoff a cada malla, desarrollándose un sistema de ecuaciones de las mallas. Se tendrá
en cuenta que las caídas de tensión en ramas comunes a varias mallas serán debidas a la suma algebraica de todas las
corrientes de malla que atraviesen la resistencia estudiada.
4) Se resuelve el sistema de ecuaciones de las mallas
5) Calculadas las intensidades de malla se despejan las intensidades de rama: en las no comunes a varias ramas, la intensidad
de rama es la de la malla; en las comunes a varias mallas es la suma algebraica de sus intensidades.
Instrumentos de medición
Varios instrumentos de medición eléctrica comprenden circuitos que pueden analizarse por los métodos de este capitulo.
http://www.monografias.com/trabajos14/electromag/electromag.shtml (21 of 53)25/05/2005 13:49:05
Teoría electromagnética - Monografias.com
http://www.monografias.com/trabajos14/electromag/electromag.shtml (22 of 53)25/05/2005 13:49:05
Teoría electromagnética - Monografias.com
Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior
Figura 11 Circuito de una sola malla que ilustra la conexión de un amperímetro A, con el cual se mide la corriente i, y un
voltímetro V, con el cual se mide la diferencia de potencial entre los puntos c y d.
El Amperímetro.
El instrumento usado para medir las corrientes se llama amperímetro. Para medir la corriente en un conductor, usualmente
tenemos que abrirlo o cortarlo e insertar el amperímetro de modo que la corriente a medir pase por el medidor.
Es esencial que la resistencia RA del amperímetro sea muy pequeña (cero, idealmente) en comparación con las demás
resistencias del circuito. De otra manera, la simple presencia del medidor cambiaría la corriente que se desea medir. En el
circuito de una sola malla de la figura 11, la condición requerida, suponiendo que no estuviese conectado el voltímetro. es
RA << r + R1 + R2
El amperímetro puede también emplearse como ohmímetro para medir una resistencia desconocida.
El Voltímetro.
Al instrumento que sirve para medir las diferencias de potencial se le llama voltímetro. Para hallar la diferencia de potencial entre
dos puntos cualesquiera en el circuito, se conectan las terminales del voltímetro entre dichos puntos, sin abrir el circuito.
Es esencial que la resistencia Ry de un voltímetro sea muy grande (infinita, idealmente) comparada con cualquier elemento del
circuito al cual esté conectado el voltímetro. De otra manera, pasarían corrientes significativas por el medidor, cambiando la
corriente en el elemento del circuito en paralelo con el medidor y, por consiguiente, cambiando también la diferencia de potencial
que va a medirse. En la figura 11, la condición necesaria es que
RV >> R1
http://www.monografias.com/trabajos14/electromag/electromag.shtml (23 of 53)25/05/2005 13:49:05
Teoría electromagnética - Monografias.com
Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior
Figura 12 Los elementos básicos de un potenciómetro empleado para comparar las fem.
A menudo se empaca una sola unidad de modo que, mediante un interruptor externo, pueda servir ya sea como amperímetro,
como voltímetro o como ohmímetro. Esta versátil unidad recibe el nombre de multímetro. Las lecturas que proporciona suelen
indicarse mediante una aguja que se mueve sobre una escala o mediante una pantalla digital.
El Potenciómetro.
Éste es un aparato para medir una fem _x desconocida comparándola con una fem _s están dar conocida. La figura 12 muestra
sus elementos básicos. El resistor que se extiende desde a hasta e es un resistor de precisión cuidadosamente fabricado con un
contacto deslizante que se muestra con posición en d. La resistencia R en la figura es la resistencia entre los puntos a y d.
Cuando se usa el instrumento, _s se coloca primero en la posición _, y el contacto deslizante se ajusta hasta que la corriente i
sea cero, lo cual se percibe en el sensible amperímetro A. Se dice entonces que el potenciómetro está balanceado, siendo R. el
valor de R en equilibrio. En esta condición de balance tenemos, considerando la malla abcda.
Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior
ya que i = 0 en la rama abcd, la resistencia interna r de la fuente patrón de fem (o del amperímetro) no interviene.
Ahora se repite el proceso con _x , sustituida por _s, siendo balanceado el potenciómetro una vez más. La corriente io
permanece sin cambio (porque i = 0) y la nueva condición de balance es
Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior
de las ecuaciones 25 y 26 tenemos, entonces,
Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior
La fem desconocida puede hallarse en términos de la fem conocida llevando a cabo dos ajustes del resistor de precisión. Nótese
que este resultado es independiente del valor de _0.
En el pasado, el potenciómetro hacía las veces de patrón secundario del voltaje, permitiendo al investigador determinar en
cualquier laboratorio una fem desconocida comparándola con la de una celda estándar (un aparato electroquímico similar a una
batería) calibrada cuidadosamente. Hoy día, el volt se define en términos de un estándar cuántico más preciso que es
relativamente fácil de reproducir en el laboratorio: las etapas cuantizadas del voltaje de un sándwich que consta de dos
superconductores separados por una delgada capa aislante, llamada conexión Josephson.
El potenciómetro es el ejemplo de un indicador de nulos, el cual permite una medición de precisión mediante el ajuste del valor
de un elemento del circuito hasta que en el medidor se lea cero. En este caso, una lectura de cero nos permite medir _x cuando
no pasa corriente por él y así nuestra medición es independiente de la resistencia interna r de la fuente de fem. Otro instrumento
de nulos es el puente de Wheatstone.
Circuitos RC
http://www.monografias.com/trabajos14/electromag/electromag.shtml (24 of 53)25/05/2005 13:49:05
Teoría electromagnética - Monografias.com
Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior
Circuitos RC Serie
En un circuito RC en serie la corriente (corriente alterna) que pasa por la resistencia y por el condensador es la misma. Esto
significa que cuando la corriente está en su punto más alto (corriente de pico), estará así tanto en la resistencia como en el
capacitor.
Pero algo diferente pasa con los voltajes. En la resistencia, el voltaje y la corriente están en fase (sus valores máximos coinciden
en el tiempo). Pero con el condensador esto no es así. El voltaje en el condensador está retrasado con respecto a la corriente
que pasa por él. (el valor máximo de voltaje sucede después del valor máximo de corriente en 90o) Estos 90º equivalen a ¼ de
la longitud de onda dada por la frecuencia de la corriente que está pasando por el circuito.
Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior
La corriente I es la misma por R y por C
Vs = Vr + Vc
Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior
El voltaje en el condensador esté atrasado con
respecto a la corriente en el mismo
El voltaje total que alimenta el circuito RC en serie es igual a la suma del voltaje en la resistencia y el voltaje en el condensador.
Este voltaje tendrá un ángulo de desfase (causado por el capacitor) y se obtiene con ayuda de las siguientes formulas:
Valor del voltaje (magnitud): Vs = (VR2 + VC2)1/2
Angulo de desfase O = Arctang (-VC/VR)
A la resistencia total del conjunto resistencia-condensador, se le llama impedancia (Z) (un nombre mas generalizado) y Z es la
suma (no una suma directa) del valor de la resistencia y de la reactancia del condensador y la unidad es en ohmios. Se obtiene
con ayuda de la siguiente fórmula:
Vs /0
Impedancia (Z) = ---------I /0
Cómo se aplica la fórmula? Z se obtiene dividiendo directamente Vs e I y el ángulo de Z se obtiene restando el ángulo de I del
ángulo Vs.
Circuitos RC en paralelo
En un circuito RC en paralelo el valor del voltaje es el mismo tanto en el condensador como en la resistencia y la corriente que
se entrega al circuito se divide entre los dos componentes.
La corriente que pasa por la resistencia y el voltaje que hay en ella están en fase (la resistencia no causa desfase) y la corriente
en el condensador está adelantada con respecto a la tensión, que es igual que decir que el voltaje está retrasado con respecto a
la corriente.
http://www.monografias.com/trabajos14/electromag/electromag.shtml (25 of 53)25/05/2005 13:49:05
Teoría electromagnética - Monografias.com
Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior
La corriente alterna total es igual a la suma de las corrientes por los dos elementos
La corriente alterna total se obtiene con ayuda de las siguientes fórmulas:
Corriente alterna Total (magnitud) It = (Ir2 + Ic2)1/2
Angulo de desfase O = Arctang (-Ic/Ir)
La impedancia Z del circuito en paralelo se obtiene con la fórmula
V /0
Z = ----------I /0
NOTA: lo que está incluido en paréntesis elevado a la 1/2, equivale a la raiz cuadrada
Carga y descarga de un capacitor
En un circuito RC, conectado a una batería, a medida que pasa el tiempo, se observa un
aumento en la tensión del capacitor, mientras que la tensión en la resistencia disminuye. Esto es así
porque el capacitor se va cargando y, una vez que llega a su carga máxima, el circuito queda abierto
(ver figura 1). Sabemos, según las leyes de Kirchhoff que:
(1)
donde Vo es el voltaje de la batería, vR(t) es la tensión en la resistencia y v(t) es la tensión en el
capacitor. A partir de la ecuación (1), la ecuación diferencial que describe el circuito es:
(2)
Si el capacitor se encuentra inicialmente descargado, la condición inicial es q(0) = 0.
De la ecuación diferencial se obtiene la carga q en función del tiempo y, a partir de ella,
podemos obtener la corriente y las tensiones en función del tiempo. La tensión en el capacitor
durante su carga es:
(3)
http://www.monografias.com/trabajos14/electromag/electromag.shtml (26 of 53)25/05/2005 13:49:05
Teoría electromagnética - Monografias.com
donde t es la constante de tiempo característica:
(4)
En un circuito RC con un capacitor cargado, se produce la descarga del mismo a través
de la resistencia. La tensión en el capacitor va disminuyendo en el tiempo hasta hacerse cero, al
igual que la tensión en la resistencia. Según las leyes de Kirchhoff:
(5)
La ecuación diferencial correspondiente al circuito es:
(6)
Conociendo la carga final qo a la que llegó el capacitor durante la carga, se obtiene la
condición inicial necesaria para la resolución de la ecuación (6).
La tensión en el capacitor durante su descarga es:
(7)
Ejemplo de un Experimento
Para la realización de este experimento, utilizamos el circuito que se ilustra en la figura
1, tanto para la carga como la descarga del capacitor, simplemente moviendo los switch s1 y s2 para
cerrar uno u otro circuito RC.
http://www.monografias.com/trabajos14/electromag/electromag.shtml (27 of 53)25/05/2005 13:49:05
Teoría electromagnética - Monografias.com
La fuente Vo es una batería de 9V. En ambos casos, medimos la tensión en el capacitor con un sistema de adquisición de datos
conectado a una PC. Realizamos el experimento dos veces variando las resistencias R1 y R2.
Resultados
En primer lugar, analizamos la carga del capacitor para dos valores distintos de resistencia R1 usando el mismo capacitor C.
Graficamos la tensión obtenida en función del tiempo de los datos experimentales, superpuesto por la curva teórica en base a la
ecuación (3) como se muestra en las figuras 2 y 3.
Derivando la tensión en el capacitor se puede obtener una relación que permite obtener
la constante de tiempo característica ••del circuito:
http://www.monografias.com/trabajos14/electromag/electromag.shtml (28 of 53)25/05/2005 13:49:05
Teoría electromagnética - Monografias.com
En el primer caso obtuvimos una constante de tiempo de 18,76 s ± 0,02 s como puede verse en la figura 4. En el segundo
experimento, ilustrado en la figura 5, obtuvimos un valor para la constante de tiempo de 10,86 s ± 0,02 s. El primer experimento
fue realizado con una resistencia R1 menor que en el segundo experimento.
http://www.monografias.com/trabajos14/electromag/electromag.shtml (29 of 53)25/05/2005 13:49:05
Teoría electromagnética - Monografias.com
Repetimos la experiencia para la descarga del capacitor, también variando la resistencia R2 con la que se descargaba el
capacitor. Graficamos la tensión en función del tiempo en las figuras 6 y 7.
http://www.monografias.com/trabajos14/electromag/electromag.shtml (30 of 53)25/05/2005 13:49:05
Teoría electromagnética - Monografias.com
Nuevamente buscamos una relación entre la derivada de la tensión y la tensión del capacitor para poder obtener el valor de la
constante de tiempo. Realizamos los gráficos 8 y 9 de los cuales obtuvimos un valor de 21,19 s ± 0,02 s para el primer
experimento y 21,89 s con un error absoluto de 0,02 s para el segundo.
http://www.monografias.com/trabajos14/electromag/electromag.shtml (31 of 53)25/05/2005 13:49:05
Teoría electromagnética - Monografias.com
Por último, graficamos los valores de τ obtenidos experimentalmente en función del producto de las resistencias R y el capacitor
C utilizados. El resultado obtenido se muestra en la figura 10.
Conclusión
Las figuras 2 y 3 comprueban la ecuación (3) que dice que la tensión en el capacitor durante la carga tiende exponencialmente a
la tensión de la fuente cuando la carga del mismo tiende a la carga máxima. En las figuras 6 y 7 se puede ver la caída
exponencial de la tensión en el capacitor cuando éste se descarga hasta llegar a una tensión igual a cero.
De los datos y la relación dada en la ecuación (8) pudimos obtener el valor de las constantes de tiempo características de los
circuitos, para distintas resistencias. De las figuras 4, 5, 8 y 9, y a partir de la regresión lineal, obtuvimos el valor de τ de la
pendiente de las rectas.
Pudimos comprobar que para resistencias mayores, la constante de tiempo característica del circuito resulta mayor.
http://www.monografias.com/trabajos14/electromag/electromag.shtml (32 of 53)25/05/2005 13:49:05
Teoría electromagnética - Monografias.com
Además, se comprueba en la figura 10 la definición de la constante característica τ dada en la ecuación (4), ya que la pendiente
que obtuvimos fue de 1,00 ± 0,03 de graficar los valores de τ obtenidos experimentalmente en función del producto de las
resistencias R usadas en cada caso y el capacitor C utilizado de 10µF.
Los experimentos realizados comprobaron con gran aproximación a la teoría conocida sobre circuitos RC que describe su
comportamiento durante la carga y la descarga de un capacitor.
3. El campo magnético
El campo magnético B
Describimos al espacio alrededor de un imán permanente o de un conductor que conduce corriente como el lugar ocupado por
un campo magnético, precisamente como hemos descrito al espacio alrededor de un objeto cargado como el lugar ocupado por
un campo eléctrico.
En electrostática, representamos simbólicamente la relación entre campo eléctrico y carga eléctrica por
Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior
Esto es, las cargas eléctricas establecen un campo eléctrico, el que a su vez puede ejercer una fuerza de origen eléctrico sobre
otras cargas.
Una carga eléctrica en movimiento o una corriente eléctrica generan un campo magnético, el cual puede entonces ejercer una
fuerza magnética sobre otras cargas o corrientes en movimiento.
La fuerza magnética sobre una carga en movimiento
Definiremos ahora el campo magnético B de la manera siguiente, basados en observaciones: la dirección de B en el punto P es
la misma que una de las direcciones de v donde la fuerza es cero; y la magnitud B se determina a partir de la magnitud de F^ de
la fuerza máxima ejercida cuando la carga en reposo se proyecta perpendicularmente a la dirección de B; o sea,
Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior
En ángulos arbitrarios, nuestras observaciones se resumen por medio de la formula
Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior
En la siguiente figura se muestra la relación geométrica entre los vectores F, v y B; nótese que, como es siempre el caso en un
producto vectorial, F es perpendicular a v, y la fuerza magnética es siempre una fuerza deflectora lateralmente.
Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior
Ya que la fuerza magnética siempre es perpendicular a v, no puede cambiar la magnitud de v, únicamente su dirección. En forma
equivalente, la fuerza forma siempre un ángulo recto con el desplazamiento de la partícula y no puede realizar trabajo sobre ella.
Así pues, un campo magnético constante no puede cambiar la energía cinética de una partícula cargada en movimiento.
Definimos al campo eléctrico similarmente por medio de una ecuación, , de modo que al medir la fuerza eléctrica podamos
determinar la magnitud y también la dirección del campo eléctrico.
Los campos magnéticos no pueden determinarse tan fácilmente con una simple medición.
Esta tabla da algunos valores típicos de campos magnéticos.
Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior
http://www.monografias.com/trabajos14/electromag/electromag.shtml (33 of 53)25/05/2005 13:49:05
Teoría electromagnética - Monografias.com
Esta figura muestra las líneas de B de un imán de barra. Partiendo por la agrupación de las líneas del campo fuera del imán
cerca de sus extremos, inferimos que el campo magnético tiene su mayor magnitud allí. Estos extremos se llaman los polos del
imán, con las designaciones norte y sur dadas a los polos en donde las líneas emergen y entran, respectivamente.
Los polos magnéticos opuestos se atraen entre si (así pues, el polo norte de un imán de barra atrae el polo sur de otro) y los
polos magnéticos iguales se repelen entre si.
Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior
La fuerza de lorentz
i tanto un campo eléctrico E como un campo magnético B actúan sobre una partícula cargada, la fuerza total sobre ella puede
expresarse como
Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior
Esta fuerza se llama la fuerza de Lorentz. La fuerza de Lorentz no es una clase nueva de fuerza: simplemente es la suma de la
fuerza eléctrica y magnética que pueden actuar simultáneamente sobre una partícula cargada.
La parte eléctrica de esta fuerza actúa sobre cualquier partícula cargada, ya sea que este en reposo o en movimiento; la parte
magnética actúa únicamente sobre las partículas cargadas en movimiento.
Una aplicación común de la fuerza de Lorentz ocurre cuando un haz de partículas cargadas pasan por una región en donde los
campos E y B son perpendiculares entre si y al vector velocidad de las partículas. Si E, B y v están orientadas como se muestra
en la figura, entonces la fuerza eléctrica
esta en la dirección opuesta a la fuerza magnética
Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior
Podemos ajustar los campos magnéticos y eléctrico hasta que las magnitudes de las fuerzas sean iguales, en cuyo caso la
fuerza de Lorentz es cero. En términos Escalares,
Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior
Los campos cruzados E y B sirven, por tanto, como un selector de velocidad: únicamente partículas con velocidad v = E/B pasan
por la región sin ser afectadas por los dos campos, mientras que las partículas con otras velocidades se desvían. Este valor de v
es independiente de la carga o de la masa de las partículas.
Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior
Otra aplicación del selector de velocidad es el espectrómetro de masas, un aparato para separar los iones por su masa. En este
caso un haz de iones, incluyendo quizá especies de masas diferentes, puede obtenerse de un vapor del material calentado en un
horno.
Un selector de velocidad solo deja pasar iones de una velocidad en particular, y cuando el haz resultante pasa entonces a través
de otro campo magnético, las trayectorias de las partículas son arcos circulares cuyos radios están determinados por el ímpetu o
momento de las partículas.
Puesto que todas las partículas tiene la misma velocidad, el radio de la trayectoria esta determinado por la masa, y cada
componente de masa diferente contenido en el haz sigue una trayectoria de un radio diferente.
Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior
http://www.monografias.com/trabajos14/electromag/electromag.shtml (34 of 53)25/05/2005 13:49:05
Teoría electromagnética - Monografias.com
Cargas circulares
La fuerza magnética deflectora es la única fuerza importante que actúa sobre los electrones, esta fuerza tiene dos propiedades
que afectan a las trayectorias de las partículas cargadas: (1) no cambia la velocidad de las partículas, y (2) siempre actúa
perpendicularmente a la velocidad de las partículas.
Estas son las características que se necesitan para que una partícula se mueva en círculo a velocidad constante.
Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior
El ciclotrón.
El ciclotrón es un acelerador que produce haces de partículas cargadas energéticamente, las que pueden emplearse en
experimentos de reacciones nucleares.
Consta de dos objetos metálicos huecos en forma de D llamados des. Las "des" están hechas de un material conductor como
laminas de cobre y están abiertas a lo largo de sus bordes rectos están conectados a un oscilador eléctrico, el cual crea una
diferencia de potencial oscilante entre las des.
Un campo magnético es perpendicular al plano de las des. En el centro del instrumento hay una fuente que emite los iones que
deseamos acelerar.
Cuando los iones están en el entrehierro entre las des, son acelerados por la diferencia de potencial entre las des. Entonces,
entran a una de las des, en donde no experimentaran un campo eléctrico ( por ser cero el campo eléctrico dentro de un
conductor ), pero el campo magnético (que no esta blindado por las des de cobre) desvía su trayectoria en un semicírculo.
Cuando las partículas entran después al entrehierro, el oscilador ha invertido la dirección del campo eléctrico, y las partículas se
aceleran de nuevo al cruzar el entrehierro.
Con mayor velocidad, recorren una trayectoria de mayor radio, sin embargo, les toma exactamente la misma cantidad de tiempo
recorrer el semicírculo mas grande; esta es la característica critica de la operación del ciclotrón.
La frecuencia del oscilador eléctrico debe ser ajustada para ser igual a la frecuencia del ciclotrón (determinada por el campo
magnético y la carga y masa de la partícula que va a ser acelerada); esta igualdad de frecuencias se llama condición de
resonancia. Si la condición de resonancia se satisface, las partículas continúan acelerándose en el entrehierro y "navegan"
alrededor de los semicírculos, adquiriendo un pequeño incremento de energía en cada circuito, hasta que son desviadas afuera
del acelerador.
La velocidad final de las partículas esta determinada por el radio R en el que las partículas dejan el acelerador.
Los ciclotrones típicos producen haces de protones con energías máximas en el orden de 10MeV.
Una diferencia de potencial más grande da a las partículas un "impulso" mayor en cada ciclo; el radio aumenta más rápidamente,
y las partículas ejecutan menos ciclos antes de salir del acelerador. Con una diferencia menor, las partículas ejecutan más
círculos pero reciben un "impulso" cada vez menor así, la energía de las partículas es independiente de la diferencia de potencial.
Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior
Un acelerador ciclotrón. Los imánes están en las cámaras grandes de arriba y de abajo. El haz es visible cuando emerge de
acelerador, porque al igual que el haz de electrones de la figura ioniza, las moléculas de aire en las colisiones.
Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior
El sincrotrón.
http://www.monografias.com/trabajos14/electromag/electromag.shtml (35 of 53)25/05/2005 13:49:05
Teoría electromagnética - Monografias.com
Las energías más elevadas se logran usando un acelerador con un diseño diferente, llamado sincrotrón. Un ejemplo es el
sincrotrón de protones de 1000GeV del Fermi National Accelerator Laboratory; en lugar de un solo imán, un sincrotón usa
muchos imanes individuales a lo largo de la circunferencia de un círculo; cada imán desvía al haz en un Angulo pequeño (0.1¼).
En un entrehierro en el anillo, un campo eléctrico acelera las partículas. Las partículas se aceleran en ráfagas, y tanto la
frecuencia del potencial de aceleración como la intensidad del campo magnético varían conforme se aceleran las partículas,
manteniendo por tanto la resonancia para todas las energías y manteniendo constante al radio de la orbita.
El espejo magnético.
Las partículas cargadas tienden a moverse en círculos con respecto a la dirección del campo. El movimiento es, por tanto, el de
una hélice, como en un resorte helicoidal.
El campo aumenta cerca de los extremos de la "botella magnética", y la fuerza tiene una pequeña componente apuntando hacia
el centro de la región, la cual invierte la dirección del movimiento de las partículas y provoca que se muevan en espiral en la
dirección opuesta, hasta que finalmente se reflejan desde el extremo opuesto. La figura muestra una vista esquemática de la
operación de un espejo magnético de esta clase.
Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior
Las partículas continúan viajando de un lugar a otro, confinadas al espacio entre las regiones de campo intenso. Tal
procedimiento se emplea para confinar los gases calientes ionizados (llamados plasmas) que se emplean en las investigaciones
sobre la fusión termonuclear controlada.
Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior
El efecto Hall
En 1879, Edwin H. Hall llevo a cabo un experimento que permitió la medición directa del signo y la densidad del numero ( numero
por unidad de volumen ) de los portadores de carga en un conductor.
El efecto Hall desempeña un papel crítico en nuestra comprensión de la conducción eléctrica en los metales y semiconductores.
Al someter un conductor por el que circula una corriente eléctrica estacionaria a un campo magnético externo, aparece una
fuerza electromotriz perpendicular a la corriente y al campo magnético.
Al estar sometida a la corriente a un campo magnético, aparece una fuerza del tipo f = qv x B sobre ella.
Esta fuerza normalmente no puede dar origen a una corriente por que líneas se encuentran con los límites del conductor.
Pero produce una redistribución de la carga libre del conductor hasta que el campo eléctrico debido a esta carga cancela la
fuerza de origen magnético.
En el exterior del conducto no existe fuerza de origen magnético y si existe la de origen eléctrico, luego se puede medir una
diferencia de potencial.
A partir de una medición de la magnitud de la diferencia V de potencial Hall podemos hallar la densidad del número de los
portadores de carga.
Este fenómeno da lugar a un voltaje Vh.
Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior
FORMULA
http://www.monografias.com/trabajos14/electromag/electromag.shtml (36 of 53)25/05/2005 13:49:05
Teoría electromagnética - Monografias.com
Dónde:
Vd es la velocidad del desplazamiento.
B es el campo magnético.
W es la anchura de la cinta.
T es el espesor de la cinta.
n es la densidad numérica de los portadores de carga.
q es la carga del portador.
El signo de los portadores de carga puede determinarse midiendo el signo del voltaje Hall y su número por unidad de
volumen a partir de la magnitud Vh. Las medidas a muy bajas temperaturas y campos magnéticos muy grandes indican que la
resistencia Hal.
Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior
está cuantizada y puede tomar valores dados por:
Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior
Dónde Rk es la constante de Klitzing cuyo valor es 25.813 omega.
Para algunos metales monovalentes (Na, K, Cu, Ag) el efecto Hall indica que cada átomo contribuye, aproximadamente, con un
electrón libre a la conducción.
En otros metales, el numero de electrones puede ser de mas de uno por átomo (Al) de menos de uno por átomo (Sb). En
algunos metales (Be, Zn), la diferencia de potencial Hall muestra que los portadores de carga tienen un signo positivo.
En este caso la conducción es denominada por huecos o agujeros, niveles de energía desocupados en la banda de valencia.
Los huecos corresponden a la ausencia de un electrón y entonces se comportan como portadores de carga positiva que se
mueven a través del material. En algunos materiales, en particular los semiconductores, puede haber contribuciones sustanciales
tanto de electrones como de huecos, y la simple interpretación del efecto Hall en términos de conducción libre por un tipo de
portador de carga no es suficiente.
Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior
La fuerza magnética sobre una corriente
Una corriente es un conjunto de cargas en movimiento. Ya que un campo magnético ejerce una fuerza lateral sobre una carga en
movimiento, también debe ejercer una fuerza lateral sobre un conductor por el cual fluya una corriente.
Esto es, se ejerce una fuerza lateral sobre los electrones de conducción en el conductor, pero puesto que los electrones no
pueden escapar lateralmente, la fuerza debe transmitirse al conductor mismo.
Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior
momento de torsión en una espira de corriente
http://www.monografias.com/trabajos14/electromag/electromag.shtml (37 of 53)25/05/2005 13:49:05
Teoría electromagnética - Monografias.com
Cuando una espira de alambre que porta una corriente se coloca dentro de un campo magnético, esa espira puede experimentar
un momento de torsión al cual tiende a hacerla girar alrededor de un eje en particular (el cual, por generalidad, podemos
considerar que pasa por el centro de masa de la espira). Este principio es la base de la operación de los motores eléctricos, así
como de los galvanómetros en los que se basan los medidores analógicos de corriente y de voltaje.
Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior
La figura muestra una espira rectangular de alambre dentro de un campo magnético uniforme B.
Para simplificar, solo e muestra la espira; suponemos que los alambres que llevan la corriente a la espira y desde esta están
entrelazados de modo que no existe una fuerza magnética neta sobre ellos.
El campo uniforme B esta en la dirección y del sistema de coordenadas. La espira orientada de modo que el eje z se encuentra
en su plano.
El plano de la espira esta indicado por un vector unitario n que es perpendicular al plano; la dirección de n se determina mediante
la regla de la mano derecha, de modo que si los dedos de su mano derecha indican la dirección de la corriente en la espira, el
pulgar da la dirección de n.
La fuerza neta sobre espira puede determinarse usando la ecuación F = iL x B para calcular la fuerza sobre cada uno de sus
cuadro lados. así, la magnitud de la fuerza F2 en el lado 2 (de longitud b), es de
Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior
Esta fuerza apunta en la dirección z positiva. La fuerza F4 sobre el lado 4 tiene la magnitud
Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior
y apunta a la dirección z negativa. Estas fuerzas son iguales y opuestas, por lo que no contribuyen a la fuerza neta sobre la
aspira. Además tienen la misma línea de acción, de modo que el momento de torsión neto ejercido por estas dos fuerzas es
también cero.
Las fuerzas F1 y F3 tienen una magnitud común de iaB. Tienen direcciones opuestas paralela y antiparalela al eje x, de modo
que tampoco contribuyen a la fuerza neta sobre la espira.
La suma de las cuatro fuerzas da una resultante de cero, por lo que llegamos a la conclusión de que el centro de masa de la
espira no se acelera bajo la influencia de la fuerza magnética neta. Sin embargo, los momentos de torsión de las fuerzas F1 y F3
no se cancelan, por que no tienen la misma línea de acción.
Estas dos fuerzas tienden a hacer girar a la espira alrededor de un eje paralelo al eje z. La dirección de la rotación tiende a llevar
a n en alineación con B
4. ley de Ampére
La ley de Ampére
Es muy importante analizar ley de Ampère, la cual fue llamada así en honor de quién, en 1825, creo las fundaciones teóricas del
electromagnetismo, implica la descripción básica de la relación existente entre la electricidad y el magnetismo, desarrollada a
través de afirmaciones cuantitativas sobre la relación de un campo magnético con la corriente eléctrica o las variaciones de los
campos eléctricos que lo producen.
Existe una ecuación análoga para el campo magnético, llamada ley de Ampêre, que relaciona el componente tangencial de B,
sumando alrededor de una curva cerrada C con la corriente Ic que pasa a través de la curva. En forma matemática, la ley de
Ampêre es:
Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior
http://www.monografias.com/trabajos14/electromag/electromag.shtml (38 of 53)25/05/2005 13:49:05
Teoría electromagnética - Monografias.com
Dónde C es cualquier curva cerrada e Ic es la corriente neta que penetra en el área limitada por la curva C.
La ley de Ampêre sólo es válida si las corrientes son continuas. Puede utilizarse para deducir expresiones del campo
magnético en situaciones de alto grado de simetría, tales como un conductor largo y rectilíneo portador de corriente; un toro
estrechamente enrollado; y un solenoide largo estrechamente enrollado.
Ley de biot savart
Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior
(Reemplazando qv por Id)
Ésta es la ecuación de Biot Savart que fué también deducida por Ampêre. Ésta ley es análoga a la ley de Coulomb
correspondiente al campo eléctrico de una carga puntual. La fuente del campo magnético es una carga móvil qv o un elemento
corriente I·dl y la carga q en la fuente del campo electrostático.
Los aspectos direccionales de los campos eléctricos y magnéticos son distintos. El campo eléctrico apunta en la dirección
radial r desde la carga puntual hasta el punto del campo y el campo magnético es perpendicular a r y a la dirección del
movimiento de las cargas, v, que es la dirección del elemento de corriente.
El campo magnético debido a la corriente total en un circuito puede calcularse mediante la ley de Biot-Savart para calcular
el campo debido a cada elemento de corriente y después sumando (integrando) para todos los elementos de corriente del
circuito.
Aplicaciones de la ley de biot savart
Campo magnético producido por una corriente rectilínea
Utilizamos la ley de Biot para calcular el campo magnético B producido por un conductor rectilíneo indefinido por el que circula
una corriente de intensidad i.
Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior
El campo magnético B producido por el hilo rectilíneo en el punto P tiene una dirección que es perpendicular al plano formado
por la corriente rectilínea y el punto P, y sentido el que resulta de la aplicación de la regla del sacacorchos al producto vectorial ut
x ur. Para calcular el módulo de dicho campo es necesario realizar una integración.
Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior
Se integra sobre la variable
, expresando las variables x y r en función del ángulo .
Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior.
En la figura, se muestra la dirección y sentido del campo magnético producido por una corriente rectilínea indefinida en el punto
P. Cuando se dibuja en un papel, las corrientes perpendiculares al plano del papel y hacia el lector se simbolizan con un punto º
en el interior de una pequeña circunferencia, y las corrientes en sentido contrario con una cruz "x" en el interior de dicha
circunferencia tal como se muestra en la parte derecha de la figura. La dirección del campo magnético se dibuja perpendicular al
plano determinado por la corriente rectilínea y el punto, y el sentido se determina por la regla del sacacorchos o la denominada
de la mano derecha.
Las líneas de B
Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior
Figura 8: Las líneas del campo magnéticos son círculos concéntricos en un alambre recto y largo, por el cual fluye una corriente.
http://www.monografias.com/trabajos14/electromag/electromag.shtml (39 of 53)25/05/2005 13:49:05
Teoría electromagnética - Monografias.com
Su dirección está dada por la regla de la mano derecha.
La figura 8 muestra las líneas que representan al campo magnético B cerca de un alambre recto largo. Nótese el aumento en el
espaciamiento de las líneas cuando aumenta la distancia desde el alambre. Esto representa la disminución 1/r predicha por la
ecuación 11.
La figura 9 muestra las líneas magnéticas resultantes asociadas a la corriente de un alambre orientado en Angulo recto con un
campo externo uniforme Be que se dirige hacia la izquierda. En cualquier punto, el campo magnético total resultante Bt es el
vector suma de Bc y Bi, en donde Bi es el campo magnético creado por la corriente del alambre. Los campos Be y Bi tienden a
cancelarse arriba del alambre. El punto P de la figura 10, Be y Bi se cancelan exactamente, y Bt, = 0. Muy cerca del alambre el
campo esta representado por líneas circulares, y Bt ª Bi.
Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior
Figura 10: Un alambre recto largo portador de una corriente hacia adentro de la página esta inmerso en un campo magnético
externo uniforme.
Las líneas del campo magnético mostradas representan el campo resultante formado al combinar en cada punto los vectores que
representan la campo uniforme original y al campo crado por la corriente en el alambre.
Para Micahel Faraday, creador del concepto, las líneas del campo magnético representaban la acción de fuerzas mecánicas, un
poco parecida a la acción de una liga elástica estirada. Usando la interpretación de Faraday, podemos ver sin dificultad que el
alambre de la figura 10 es jalado hacia arriba por la "tensión" de las líneas del campo. Este concepto tiene solo una utilidad
limitada, y hoy DIA usamos las líneas de B principalmente para formarnos una imagen mental. En los cálculos cuantitativos
usamos los vectores del campo, y describiríamos la fuerza magnética sobre el alambre de la figura 10 usando la relación F = iL x
B.
Al aplicar esta relación a la figura 10, recordamos que la fuerza sobre el alambre es causada por el campo externo en el que esta
inmerso el alambre; esto es, es Bc, el cual apunta hacia la izquierda. Puesto que L apunta hacia adentro de la pagina, la fuerza
magnética sobre el alambre ( = iL x B.) apunta en efecto hacia arriba. Es importante usar solo el campo externo en tales cálculos,
pues el campo creado por la corriente del alambre no puede ejercer una fuerza sobre el alambre, del mismo modo en que el
campo gravitatorio de la Tierra no puede ejercer una fuerza sobre la Tierra misma sino solo sobre otro cuerpo. En la figura 9, por
ejemplo, no existe una fuerza magnética sobre el alambre porque no este presente ningún campo magnético externo.
Solenoides y Toroides
Dos clases de componentes prácticos basados en los devanados de espiras de corriente son los solenoides y los toroides. El
solenoide suele utilizarse para crear un campo magnético uniforme, al igual que el capacitor de placas paralelas crea un campo
eléctrico uniforme. En los timbres de las puertas y en los altavoces, el solenoide a menudo proporciona el campo magnético que
acelera a un material magnético.
Los toroides se emplean también para crear campos grandes.
Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior
en esta figura la Sección de un solenoide "extendido" con el fin de mostrar las líneas del campo magnético.
Solenoides.
El solenoide es un alambre largo devanado en una hélice fuertemente apretada y conductor de una corriente i. La hélice es muy
larga en comparación con su diámetro. ¿Cuál es el campo magnético B que genera el solenoide?
La figura 12 muestra, solo con fines de ilustración, la sección de un solenoide "extendido". En los puntos cercanos a una sola
vuelta del solenoide, el observador no puede percibir que el alambre tiene la forma de arco. El alambre se comporta
magnéticamente casi como un alambre recto largo, y las líneas de B debidas a esta sola vuelta son casi círculos concéntricos.
http://www.monografias.com/trabajos14/electromag/electromag.shtml (40 of 53)25/05/2005 13:49:05
Teoría electromagnética - Monografias.com
El campo del solenoide es la suma vectorial de los campos creados por todas las espiras que forman el solenoide. La figura 12
sugiere que losa campos tienden a cancelarse entre alambres contiguos. También sugiere que, en los puntos dentro del
solenoide y razonablemente alejados de los alambres, B es paralelo al eje del solenoide.
En el caso limita de alambres cuadrados empaquetados en forma compacta, el solenoide se convierte esencialmente en una
lamina de corriente cilíndrica, y las necesidades de simetría obligan entonces a que sea rigurosamente cierto el hecho de que B
sea paralelo al eje del solenoide. A continuación damos por sentado que esto es así.
Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior
Figura 12: Líneas del campo magnético en un solenoide de longitud finita. Nótese que el campo es más intenso (lo que esta
indicado por la mayor densidad e las líneas del campo) dentro del solenoide que fuera del mismo.)
Para puntos como p en la figura 12, el campo creado por la parte superior de las espiras del solenoide (marcadas con el signo ù
porque la corriente sale de la pagina) apunta ala izquierda y tiende a cancelara al campo generado por ala parte inferior de las
espiras del solenoide, que apunta hacia la derecha. Cuando el solenoide se vuelve más y más ideal, esto es, cuando se
aproxima a la configuración de una lamina de corriente cilíndrica e infinitamente larga, el campo B en los puntos de afuera tiene a
cero. Considerar que el campo externo sea cero es una buena hipótesis de un solenoide práctico si su longitud es mucho mayor
que su diámetro y si consideramos únicamente los puntos externos cerca de la región central del solenoide, es decir, lejos de los
extremos. La figura 13 muestra la línea de B para un solenoide real, que esta lejos de ser ideal, puesto que la longitud es
ligeramente mayor que el diámetro. Aun aquí, el espaciamiento de las líneas de B en el plano central muestra que el campo
externo es mucho más débil que el campo interno.
Apliquemos la ley de Ampere,
Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior
A la trayectoria rectangular abcd en el solenoide ideal de la figura 13 Escribiremos la integral como la suma de cuatro integrales,
una por cada segmento de la trayectoria
Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior
Figura 13: un anillo amperiano (el rectángulo abcd) se emplea para calcular el campo magnético de este solenoide largo
idealizado.
La primera integral a la derecha es Bh, donde B es la magnitud del B dentro del solenoide y h es la longitud arbitraria de la
trayectoria desde a hasta b. Nótese que la trayectoria ab, si bien paralela al eje del solenoide, no necesariamente coincide con el.
Resultara que b adentro del solenoide es constante en su sección transversal e independiente de la distancia desde ele eje
(como sugiere por el espaciamiento igual de las líneas de B en la figura 12 cerca del centro del solenoide).
La segunda y cuarta integrales de la ecuación 21 son cero, porque en cada elemento de estas trayectorias B esta en Angulo
recto con la trayectoria o bien es cero (para los puntos fuera de el). En cualquier caso, B× ds es cero, y las integrales se anulan.
La tercera integral, que incluye la parte del rectángulo que se encuentra fuera del solenoide, es cero porque hemos aceptado que
B es cero en todos los puntos externos de un solenoide ideal.
Par toda la trayectoria rectangular
tiene el valor Bg. La corriente neta i que pasa por el anillo amperiano rectangular no es la
misma que la corriente i0 en el solenoide porque l devanado atraviesa el anillo mas de una vez. Hagamos que n sea el numero
de esperas por unidad e longitud: entonces la corriente total, que esta fuera de la pagina dentro del anillo amperiano rectangular
de al figura 13 es
Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior
La ley de Ampere se convierte entonces en
http://www.monografias.com/trabajos14/electromag/electromag.shtml (41 of 53)25/05/2005 13:49:05
Teoría electromagnética - Monografias.com
Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior
La ecuación 22 muestra que el campo magnético adentro de un solenoide depende únicamente de la corriente i0 y del número
de espiras n por unidad de longitud.
Si bien hemos deducido la ecuación 22 para un solenoide ideal infinitamente largo, se cumple bastante bien con los solenoides
reales en los puntos internos cerca del centro del solenoide. Par un solenoide ideal, la ecuación 22 indica que B no depende del
diámetro o de la longitud del solenoide y que B es constante en la sección transversal del solenoide. El solenoide es una manera
práctica de crear un campo magnético uniforme.
Toroides.
La figura 14 muestra aun toroide, que debemos considerar que es un solenoide doblado en forma de rosca. Hallemos el campo
magnético en los puntos interiores usando la Ley de Ampere y ciertas consideraciones de simetría.
Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior
Figura 14: Toroide. El campo interior puede determinarse usando el anillo amperiano circular que se muestra.
Partiendo de la simetría, las líneas de B forman círculos concéntricos en el interior del toroide, como se muestra en la figura.
Elegimos un circulo concéntrico de radio r como anillo amperiano y lo recorremos en dirección de las manecillas del reloj. La ley
de Ampere da
Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior
Donde i0 es la corriente en el devando del toroide n es el número total de espiras. Esto da
Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior
Al contrario de lo que ocurre con el solenoide, B no es constante en la sección transversal de un toroide. Debemos poder
demostrar, a partir de la ley de ampere,d que B = 0 en los punto fuera de un toride ideal.
Una observación mas detallada de la ecuación 23 justifica nuestra anterior aseveración de que el toroide es un solenoide
doblado en forma de rosca. En la ecuación 23, el denominador 2pr, es la circunferencia central del toroide, y N/2pr es justamente
n, el número de espiras por unidad de longitud. Con esta sustitución, la ecuación 23 se reduce a B = m0i0n, la ecuación del
campo magnético en la región central de un solenoide.
La dirección del campo magnético dentro de un toride (o de un solenoide) se deduce de la regla de la mano derecha: doble los
dedos de la mano derecha de la dirección de la corriente; el pulgar derecho extendido apunta entonces en dirección al campo
magnético.
Los toroides forma la característica central del Tokamak, maquina que muestra ser prometedora como base el reactor
termonuclear. Estudiaremos más adelante
El campo fuera de un solenoide (opcional)
Hasta el momento ;hemos despreciado el campo fuera del solenoide pero, aun en un solenoide ideal, el campo no es cero en los
puntos fuera del devanado . la figura 15 muestra una trayectoria ampiriana en forma de círculo de radio 4. ya que los devanados
del solenoide o helicoidales, una espira del devanado cura la superficie encerrada por el circulo.
Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior
Figura 15: Un anillo amperiano circular de radio r se emplea para hallar el campo tangencial externo de un solenoide.
http://www.monografias.com/trabajos14/electromag/electromag.shtml (42 of 53)25/05/2005 13:49:05
Teoría electromagnética - Monografias.com
El producto B× ds para esta trayectoria depende de la componente tangencial del campo B, y por tanto la ley de Ampere da
Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior
Que el mismo campo (en magnitud y también en dirección) que se generaría por un alambre recto. Nótese que los devanados,
además de conducir corriente alrededor de la superficie del solenoide, conducen también corriente de izquierda ad derecha de la
figura 15, y a este respecto el solenoide se comporta como un alambre recto en los puntos fuera del devanado.
El campo tangencial es mucho mas pequeño que el campo interior (ec.22) como podemos ver al considera la razón
Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior
Supongamos que el solenoide consta de una capa de vueltas en la que los alambres se tocan entre si, como en la figura 13.
cada intervalo a lo largó del solenoide longitud igual al diámetro D del alambre contiene una espira, y así el numero de espiran
por unidad de longitud debe ser de 1/D. Entonces, la razón se convierte en
Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior
En un alambre típico, D=0.1 mm. La distancia r a los puntos exteriores debe ser cuando menos tan grande como el radio del
solenoide el cual podría ser4 de unos cuantos centímetros. Entonces Bt/B £ 0.0001m, y el campo tangencial exterior es
realmente despreciable comparado en el campo interior a lo largo del eje. Por lo tanto, estamos en lo seguro al despreciar el
campo exterior.
Al dibujar un circulo amaperiano similar al de la figura 15 pero con un radio mas pequeño que el del solenoide, uno debe poder
demostrar que la componente tangencial del campo interior es cero.
Electromagnetismo y los marcos de referencia
La figura muestra una partícula portadora de una carga positiva q en reposo cera de un alambre recto largo por el que fluye una
corriente i. Vemos al sistema desde un marco de referencia S en el que el alambre está en reposo. Dentro del alambre hay
electrones negativos que se mueven a una velocidad de arrastre vd y núcleos de iones positivos en reposo.
Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior
Figura 16: Una partícula de carga q esta en reposo y en equilibrio cerca de un alambre que conduce una corriente i. La situación
es observada desde un marco de referencia S en reposo relativo a la partícula (b) la misma situación vista desde un marco S’
que se mueve con la velocidad de arrastre de los electrones en el alambre. La partícula esta también en equilibrio en este marco
bajo ala influencia de las dos fuerzas FE y FB.
En cualquier longitud dada del alambre , el número de electrones es igual al número de corazas de iones, y la carga neta es
cero. Los electrones pueden considerarse instantáneamente como una línea de carga negativa, la cual crea un campo eléctrico
en la ubicación de que de acuerdo con al ecuación 33 del capitulo 28:
Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior
En donde l, es la densidad de caga lineal de los electrones (un numero negativo). Las corazas de iones positivos generan
también un campo eléctrico dado por una expresión similar, dependiendo de la densidad de cara lineal l, de los iones positivos.
Puesto que las densidades de carga son de magnitud igual signo opuesto, l+ + l - = 0 y el campo eléctrico neto que actúa sobre
la partícula es cero también.
Consideremos ahora la situación desde la perspectiva de un marco de referencia S’ que se mueve paralelo, en este marco de
referencia con actúa ninguna fuerza neta de origen electromagnética sobre la partícula.
5. ley de la inducción de Faraday
http://www.monografias.com/trabajos14/electromag/electromag.shtml (43 of 53)25/05/2005 13:49:05
Teoría electromagnética - Monografias.com
Ley de inducción de Faraday
La ley de la inducción de Faraday tiene su origen en los experimentos realizados por Michael Faraday en Inglaterra en 1831, y
por Joseph Henry en Estados Unidos casi al mismo tiempo. Aunque Faraday publicó sus resultados primero, lo cual le da
prioridad del descubrimiento, a la unidad en el SI se le llama henry (abreviatura H). Por otra parte la unidad de Capacitancia en el
SI recibe el nombre de Farad (abreviatura F).
Los experimentos de Faraday, Henry y otros, demostraron que si el flujo magnético a través de un circuíto varía por cualquier
medio, se induce una FEM que es igual en magnitud a la variación por unidad de tiempo del flujo inducido en el circuito pero
aparece incluso cuando no existe corriente (circuito abierto). Al principio la FEM en un circuito se localizó en una región
específica pero la fem inducida a través de un flujo magnético variable puede considerarse distribuida a través de un circuito.
E=fE dl (FEM del circuíto).
Los campos eléctricos de cargas estáticas son conservativos por lo cual su integral alrededor de una curva cerrada es cero.
El campo eléctrico resultante de un flujo magnético variable no es conservativo.
Los experimentos de Faraday
La figura 1 muestra una bobina de alambre como parte de un circuito que contiene un amperímetro. Normalmente, cabría
esperar que el amperímetro no mostrase corriente en el circuito por que parece que no existe una fuerza electromotriz.
Sin embargo, si desplazamos un imán de barra hacia la bobina, con su polo norte encarando a la bobina, ocurre un fenómeno
notable. Al mover el imán, el indicador del amperímetro se mueve, demostrando con ello que pasa una corriente por la bobina. Si
mantenemos el imán estacionario con respecto a la bobina, el amperímetro no marca. Si movemos el imán alejándose de la
bobina, el medidor muestra de nuevo una desviación, pero ahora en dirección opuesta, lo cual significa que la corriente en la
bobina circula en dirección opuesta. Si usamos el extremo del polo sur de un imán en lugar del extremo del polo norte, el
experimento funciona como se ha descrito , pero la desviación se invierte. Cuanto más aprisa se mueve al imán, mayor será la
lectura registrada en el medidor.
Experimentos posteriores demuestran que lo que importa es el movimiento relativo entre el imán y la bobina. NO existe ninguna
diferencia en que movamos el imán hacia la bobina o la bobina hacia el imán.
La corriente que aparece en este experimento se llama corriente inducida y se dice que se origina por una fuerza electromotriz
inducida. Nótese que no existen baterías en ninguna parte del circuito. Faraday dedujo, a partir de experimentos como este, la
ley que da la magnitud y dirección a las fem inducidas. Tales fem son muy importantes en la práctica.
http://www.monografias.com/trabajos14/electromag/electromag.shtml (44 of 53)25/05/2005 13:49:05
Teoría electromagnética - Monografias.com
En otro experimento se emplea el aparato de la figura 2. Las bobinas se colocan una cerca de la otra pero en reposo respecto la
una de la otra. Cuando cerramos el interruptor S, creando así una corriente estacionaria en la bobina de la derecha, el medidor
marca momentáneamente; cuando abrimos el interruptor, interrumpiendo de este modo la corriente, el medidor marca de nuevo
momentáneamente, pero en dirección opuesta. Ninguno de los aparatos se mueve físicamente en este experimento.El
experimento muestra que existe una fem inducida en la bobina izquierda de la figura 2 siempre que la corriente de la bobina
derecha esté cambiando. Lo que es significativo aquí es la velocidad a la que cambia la corriente y no la intensidad de la
corriente.
La característica común de estos dos experimentos es el movimiento o cambio. La causa de las fem inducidas es el imán en
movimiento o la corriente cambiante.
La ley de lenz
La dirección y sentido de la fem y de la corriente inducida puede determinarse mediante el principio físico llamado LEY DE LENZ.
Su definición sería: "La FEM y la corriente inducidas poseen una dirección y sentido tal que tienden a oponerse a la variación que
las produce".
La corriente inducida en ella debe oponerse a esta disminución de flujo, tratando de que el campo magnético debido a esa
corriente contribuya a mantener el flujo. Esto lo vemos en esta figura.
http://www.monografias.com/trabajos14/electromag/electromag.shtml (45 of 53)25/05/2005 13:49:05
Teoría electromagnética - Monografias.com
Fem de movimiento o cinética
FEM del movimiento: Es toda FEM introducida por el movimiento relativo de un campo magnético y un segmento de corriente. La
FEM de movimiento se induce en una barra o alambre conductor que se mueve en un campo magnético incluso cuando el
circuito no está completo y no existe corriente.
La FEM del movimiento es un ejemplo de la ley de Faraday donde puede entenderse el origen de la FEM considerando las
fuerzas conocidas que actúan sobre los electrones del circuíto.
Una fem inducida como esta, producida por el movimiento relativo de un conductor y la fuente de un campo magnético, se llama
a veces una fem de movimiento o cinética.
Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior
Campos eléctricos inducidos
La ley de Faraday que acabamos de enunciar no necesita de la presencia del conductor para inducir un campo eléctrico, es
decir, un flujo magnético variable atravesando la porción superficie delimitada por una curva cerrada produce un campo eléctrico
E tal que se verifica:
Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior
La integral del segundo miembro es la circulación del vector E. Recordemos que en electrostática la circulación de E vale cero (E
es un campo vectorial conservativo), por lo que concluimos que el campo eléctrico inducido no es conservativo. Por ejemplo si
tuviésemos una densidad de flujo magnético B uniforme en el espacio pero variable en con el tiempo, perpendicular al plano del
papel penetrando en él, el campo eléctrico inducido en los puntos de una circunferencia contenida en dicho plano tendría el
mismo módulo E por simetría, su dirección sería tangente a la circunferencia en cada punto y su sentido el determinado por la
regla del sacacorchos (Fig. 9.10). Si aplicamos la (9.30) tendremos que • = 2• R E, o sea, E = • /2• R.
El beatrón
El betatrón es un aparato para acelerar electrones (conocidos también como partículas beta) a altas velocidades usando campos
eléctricos inducidos producidos por campos magnéticos cambiantes.
http://www.monografias.com/trabajos14/electromag/electromag.shtml (46 of 53)25/05/2005 13:49:05
Teoría electromagnética - Monografias.com
Teles electrones de alta energía pueden emplearse para investigación básica en física así como para producir rayos X en
investigación aplicada a la industria y con fines médicos como la terapia contra el cáncer. El betatrón proporciona una ilustración
excelente de la "realidad" de los campos eléctricos inducidos. Típicamente los betatrones pueden producir energías de 100 MeV,
en cuyo caso los electrones son altamente relativistas (v= 0.999987c). Los betatrones pueden producir corrientes enormes, en la
gama de 103 a 105 A. Sin embargo, son máquinas pulsantes, que producen pulsaciones de una anchura típica _s o menos
separados por intervalos de tiempo de entre 0.01 y 1 s.
La inducción y el movimiento reactivo
Lo que parece ser un campo magnético en un marco de referencia puede parecer una mezcla de campos eléctricos y
magnéticos en otro marco de referencia. Puesto que la fem está determinada por la velocidad del objeto que se mueve a través
del campo magnético, está claro que depende del marco de referencia del observador. Otros observadores de marcos inerciales
diferentes mediaran velocidades diferentes e intensidades del campo magnético diferentes. Por lo tanto, es necesario especificar
el marco de referencia del observador al calcular las fem y las corrientes inducidas.
Si una figura muestra una espira a la que un agente externo causa que se mueva a velocidad v con respecto a un imán que
proporciona un campo uniforme B sobre una región. Un observador S está en reposo con respecto con respecto al imán
empleado para crear al campo B. La fem inducida en este caso es una fuerza electromotriz de movimiento o cinética por que la
espira de conducción se está moviendo con respecto a este observador.
Consideremos un portador de carga positiva en el centro del extremo izquierdo de la espira. Para el observador S, esta carga q
está obligada a moverse a través del campo B a velocidad v hacia la derecha junto con la espira, y experimenta una fuerza
magnética dada por F = qv x B. Esta fuerza provoca que los portadores se muevan hacia arriba (en la dirección y) a lo largo del
conductor; finalmente, llegan a adquirir la velocidad de arrastre vd.
La velocidad de equilibrio de los portadores resultante es ahora V, la suma vectorial de v y vd. En esta situation la fuerza
magnética FB es
Para ver el gráfico seleccione la opción ¨Bajar trabajo¨ del menú superior
actuando (como siempre) en ángulo recto con la velocidad resultante V del portador.
Al actuar sola, FB tendería a empujar a los portadores a través de la pared izquierda del conductor. Ya que esto no sucede, la
pared del conductor debe ejercer una fuerza normal N sobre los portadores de magnitud tal que vd se encuentre paralela al eje
del alambre; en otras palabras, N cancela exactamente a la componente horizontal de FB, dejando únicamente a la componente
FB cos _ que se encuentra a lo largo de la dirección del conductor. Esta última componente de la fuerza sobre el portador
también se cancela, en este caso, por la fuerza impulsora de promedio Fi asociada a las colisiones internas que experimenta el
portador cuando se mueve a velocidad (constante) vd por el alambre.
La energía cinética del portador se carga al moverse por el alambre permanece constante. Esto es consistente con el hecho de
que la fuerza resultante que actúa sobre el portador de carga (=FB+Fi+N) es cero. El trabajo efectuado por FB es cero por que
las fuerzas magnéticas, que actúan en ángulo recto con la velocidad de una carga en movimiento, no pueden efectuar ningún
trabajo sobre esa carga. Entonces, el trabajo (negativo) efectuado sobre el portador por la fuerza de colisión interna promedio
debe ser cancelado exactamente por el trabajo (positivo) efectuado sobre el portador por la fuerza N. Por último N, es
suministrada por el agente que tira de la espira a través del campo magnético, y la energía mecánica gastada por este agente
aparece como energía interna en la espira.
Cuando un observador S fijo con respecto al imán percibe únicamente un campo magnético. Para este observador, la fuerza
surge del movimiento de las cargas a través de B. El observador S’ fijo en el portador de una carga advierte también un campo
eléctrico E’ y le atribuye al campo eléctrico la fuerza sobre la carga (inicialmente en reposo con respecto a S’). S dice que la
fuerza es puramente de origen magnético, mientras que S’ dice que la fuerza es de origen puramente eléctrico.
Para un tercer observador S’’, en relación con el cual se mueven tanto el imán como la espira, la fuerza que tiende a mover a las
cargas alrededor de la espira, no es ni puramente eléctrica, ni puramente magnética, sino un poco de cada una. En resumen, en
la ecuación
http://www.monografias.com/trabajos14/electromag/electromag.shtml (47 of 53)25/05/2005 13:49:05
Teoría electromagnética - Monografias.com
F/q = E + v x B
Diferentes observadores se forman diferentes juicios de E, B y v pero, cuando estos están combinados, todos los observadores
se forman el mismo juicio con respecto a F/q, y todos obtienen el mismo valor para la fem inducida en la espira (que depende
únicamente del movimiento relativo. Esto es, la fuerza total(y, por tanto, la aceleración total) es la misma para todos los
observadores, pero cada observador se forma una estimación diferente de las fuerzas eléctricas y magnéticas por separado que
contribuyen a la misma fuerza total.
6. características químicas de imanes
Nombre de la roca,
mineral o piedra
Magnetita
Tipo básico
Ígneas y metamórficas
Grupo
Óxidos
Sistema Cristalino /
Estructura
Cúbico, hexaoctaédrica
Cristalina. Isométrica
Composición química
Fe3O4 (FeO 31%, Fe2 O3 69%);
Formación
De la deshidratación de los hidróxidos de hierro.
Dureza
5.5 - 6
Textura
Masas granulares
Densidad
4.9 - 5.2
Color
Negro, amarillo
Brillo
Semimetálico, opaca
Propiedades
Muy magnética
Usos
Obtención del fierro fundido y acero.
Observaciones
particulares
El mineral se obtiene en minas; una en particular es la del Cerro del Mercado, mina que se
encuentra en la ciudad de Durango.
http://www.monografias.com/trabajos14/electromag/electromag.shtml (48 of 53)25/05/2005 13:49:05
Teoría electromagnética - Monografias.com
Información
La ciudad de Durango es una bella ciudad que además de sus modernas construcciones,
conserva ese sabor provinciano lleno de tradiciones mexicanas. El origen de la ciudad se debe al
antiguo mineral del Cerro del mercado, situado al norte de la ciudad, llamado así en memoria de
su descubridor, el capitán Ginés Vázquez del Mercado. El día 15 de diciembre del 2000, el grupo
asistió a las instalaciones de la mina, fue atendido muy amablemente por el Ing. Manuel Lara,
quien los acompañó en un recorrido por el exterior, les explicó las fases y procesos del mineral,
les mostró los molinos y explicó su funcionamiento, además los dejó convivir con el mineral y les
permitió tomar diferentes muestras del mismo. Por lo aprendido, este grupo manifiesta su
entusiasmo y agradecimiento a los creadores del proyecto, lo consideramos muy bien planeado y
de mucho provecho.
Conclusión
Puesto que la corriente eléctrica siempre sale de la terminal negativa de la fuente de energía, el flujo de corriente en un circuito
siempre tendrá la misma dirección si la polaridad de la tensión de la fuente permanece siempre invariable. Este tipo de flujo de
corriente recibe el nombre de corriente directa o continua y a la fuente se le llama fuente de corriente directa. Todo circuito que
use una fuente de corriente directa es un circuito de corriente continua. Los tres tipos de fuentes que se usan con más frecuencia
en circuitos de corriente continua son: la batería, el generador de corriente continua y las fuentes de electrones.
Como pudimos ver el campo magnético es producido por la corriente eléctrica que circula por un conductor.
También analizamos que este campo de fuerzas está formado por cargas eléctricas en movimiento, que se manifiestan por la
fuerza que experimenta una carga eléctrica al moverse en su interior.
Para determinar la expresión del campo magnético producido por una corriente se emplean dos leyes: la ley de Biot-Savart y la
ley de Ampère.
podemos afirmar que la ley de Ampère proporciona una formulación alternativa de la relación de los campos magnéticos con las
corrientes. Es análoga a la ley de Gauss en electrostática.
En cuanto a la ley de Biot-Savart decimos que nos da el campo magnético producido por un pequeño elemento de conductor por
el que circula una corriente. Se puede utilizar para encontrar el campo magnético creado por cualquier configuración de
conductores con corriente, resumiendo un poco, esta ley describe la fuerza magnética entre dos circuitos con corriente.
Es valioso conocer los experimentos realizados por Faraday y el estudio de su ley, así como la de Lenz, pues sientan las bases
para el cálculo cinemático, el movimiento relativo y la evaluación de los campos eléctricos.
14 preguntas
1.
2.
3.
4.
5.
6.
7.
8.
9.
10.
11.
12.
13.
14.
¿que es corriente eléctrica?
¿Qué es resistencia?
¿Qué es un semiconductor?
¿Qué es una fem?
¿Cuáles son los diferentes instrumentos de medición?
¿que es un campo magnético B?
¿ cual es la fuerza de Lorentz?
¿que es el ciclotrón?
¿que es el sincrotón?
¿que dice el efecto hall?
¿ que es el solenoide?
¿ que es el toroides?
¿ quien dio origen ala ley de inducción?
¿ cual es el principio de la ley de lenz?
http://www.monografias.com/trabajos14/electromag/electromag.shtml (49 of 53)25/05/2005 13:49:05
Teoría electromagnética - Monografias.com
14 Respuestas
1. es el flujo de electrones en un conductor
2. La diferencia de potencial entre los extremos de un conductor es directamente proporcional a la intensidad que circula por
él. A la constante de proporcionalidad se le llama resistencia del conductor.
3. Un semiconductor es un componente que no es directamente un conductor de corriente, pero tampoco es un aislante,
porque tiene cierto límite de resistencia por el tipo de impureza que tiene.
4. es cualquier dispositivo(batería o generador) que produce un campo eléctrico y que por lo tanto puede originar un
5.
6.
7.
8.
9.
10.
11.
12.
13.
14.
movimiento en las cargas por un circuito.
el amperímetro, el voltímetro, potenciómetro.
Describimos al espacio alrededor de un imán permanente o de un conductor que conduce corriente como el lugar
ocupado por un campo magnético.
Si tanto un campo eléctrico E como un campo magnético B actúan sobre una partícula cargada, la fuerza total sobre ella
puede expresarse como F = qe + qv x B
El ciclotrón es un acelerador que produce haces de partículas cargadas energéticamente, las que pueden emplearse en
experimentos de reacciones nucleares.
Las energías más elevadas se logran usando un acelerador con un diseño diferente, llamado sincrotrón. Un ejemplo es el
sincrotrón de protones de 1000GeV del Fermi National Accelerator Laboratory; en lugar de un solo imán, un sincrotón usa
muchos imanes individuales a lo largo de la circunferencia de un circulo; cada imán desvía al haz en un Angulo pequeño
(0.1¼).
En 1879, Edwin H. Hall llevo a cabo un experimento que permitió la medición directa del signo y la densidad del numero
( numero por unidad de volumen ) de los portadores de carga en un conductor. El efecto Hall desempeña un papel crítico
en nuestra comprensión de la conducción eléctrica en los metales y semiconductores.
El solenoide suele utilizarse para crear un campo magnético uniforme, al igual que el capacitor de placas paralelas crea
un campo eléctrico uniforme.
es un solenoide doblado en forma de rosca, también se emplea para crear campos grandes.
Michael faraday en Inglaterra en 1831 y por Joseph henry en usa casi al mismo tiempo.
La FEM y la corriente inducidas poseen una dirección y sentido tal que tienden a oponerse a la variación que las produce".
Bibliografía y reseñas
http://www.lasalle.es/vina/contenidos/temasfisica/electromagnetismo/index.htm
http://www.colegiosanrafael.cl/gustavo/sitios4.html
http://www.todo-ciencia.com/fisica-mates/0i81056300d990262239.php
http://www-istp.gsfc.nasa.gov/Education/Mmfield.html
http://www.nalejandria.com/archivos-curriculares/
http://www.geocities.com/tresmileniosdeliman/tema14.html
http://webmineral.com/help/ChemicalFormula.shtml
http://www.ejercitando.com.ar/teorquim/magnetita.htm
http://www.ifent.org/lecciones/electrostatica/eletica24.htm
http://www.irabia.org/web/ciencias/electricidad/electricidad/diferencia.htm
http://www.tochtli.fisica.uson.mx/castillo/HTM/CORRIENT.HTM
http://www.extremadurasi.org/contenidos_docentes/electro/t3.htm#4
http://www.monografias.com/trabajos14/electromag/electromag.shtml (50 of 53)25/05/2005 13:49:05
Teoría electromagnética - Monografias.com
http://redescolar.ilce.edu.mx/redescolar/publicaciones/publi_rocas/magnetita.htm
http://www.fluke.nl/common/country_pages/product_main.asp?locale=mxes
http://www.unicrom.com/Tutoriales/circuitoRC.asp
http://hyperphysics.phy-astr.gsu.edu/hbase/magnetic/amplaw.html
http://www.lasalle.es/vina/contenidos/temasfisica/electromagnetismo/index.htm
http://www.physics.unomaha.edu/Sowell/Phys1120/Lectures/Chap20/FaradaysLaw/default.htmlhttp://physics.njit.edu/~cdenker/
physics121_week12.pdf
http://www.encyclopedia.com/html/F/Faradays.asp
http://www.fnrf.science.cmu.ac.th/theory/magnets/Induced%20Voltage.html
http://www.itcg.edu.mx/teoriaelectro/
http://hyperphysics.phy-astr.gsu.edu/hbase/electric/farlaw.html#c1
http://www.eui.upv.es/tele/ffi/LECCION5/I.HTM
http://www.csi.ull.es/~jplatas//web/cc/teoria/indext3.htm
http://www.sc.ehu.es/sbweb/fisica/elecmagnet/fem/fem.htm
http://www.cec.uchile.cl/~cutreras/apuntes/node110.html
http://www.unirioja.es/dptos/dq/fa/emo/prob_emo2/node2.html
(1) Física Universitaria, F. W. Sears, M. W. Zemansky y H. D. Young, 6ta. Ed., Editorial Fondo Educativo
Interamericano, México (1986).
(2) Física Re-Creativa, S. Gil y E. Rodriguez, 1ra. Ed., Argentina (2000).
Halliday, D.; Resnick, R.; Krane, K.S. Física. Vol.2. CECSA. México D.F. 1999. p. 661-68
Great Experiments in Physics. Morris Shamos, editor. Holt, Rinehart and Winston, New York.
The Feynman Lectures on Physics. R. Feynman. R. Leighton and M. Sands. Addison - Wesley. Reading.
Source Book in Physics. W. Magie. Hardvard University Press. Cambridge. Mass
Foundations of Modern Physical Science. G. Holton and D.H.D. Roller. Addison - Wesley. Reading. Mass.
Alonso, M.; Finn, E. Física. Addison - Wesley - Longman. México D.F. 1998.
Schaum, D.; Van der Merwe, C.W. Física General. McGraw-Hill. México D.F. 1998. p. 237-247.
http://www.monografias.com/trabajos14/electromag/electromag.shtml (51 of 53)25/05/2005 13:49:05
Teoría electromagnética - Monografias.com
Serway, R. Física. Tomo II. McGraw-Hill. México D.F. 1996.p. 1423-1452.
Brueker, H. Etal. "Tracking and Imaging Elementary Particles". Sci. American. August. 1991.
Close, F. The Cosmic Onicn: Quarks and the Nature of the Universe. The American Institute of Physics. 1986.
Fritzsch, H. Quarks, The Stuff of Metter. London. Allen, Lane. 1983.
Gamow, G. "Gravity and Antimatter". Sci. American. March. 1961.
Goldman, T. Etal. "Gravity and Antimatter". Sci. American. March. 1989.
Riordan, M. "The Discovery of Quarks". Science, 29 May 1992.
Sears, F. W.; Zemaasky, M. W.; Young, H. D.; Freedmand, R. A. Física Universitaria. Volumen 2. Addison - Wesley. Longman.
México D.F. 1996. p. 1413-1452.
Cutnell, J. D.; Johnson, K. W. Física. Limusa, Méxido D.F. 1999. p. 833-901
Cromer, A. H. Física para las Ciencias de la Vida. Reverté. México D.F. 1996. p. 485-548.
Halliday, D.; Resnick, R.; Krane, K.S. Física. Vol.2. CECSA. México D.F. 1999. p. 661-68
Great Experiments in Physics. Morris Shamos, editor. Holt, Rinehart and Winston, New York.
The Feynman Lectures on Physics. R. Feynman. R. Leighton and M. Sands. Addison - Wesley. Reading.
Source Book in Physics. W. Magie. Hardvard University Press. Cambridge. Mass
Foundations of Modern Physical Science. G. Holton and D.H.D. Roller. Addison - Wesley. Reading. Mass.
alonso, M.; Finn, E. Física. Addison - Wesley - Longman. México D.F. 1998.
Schaum, D.; Van der Merwe, C.W. Física General. McGraw-Hill. México D.F. 1998. p. 237-247.
Serway, R. Física. Tomo II. McGraw-Hill. México D.F. 1996.p. 1423-1452.
Brueker, H. Etal. "Tracking and Imaging Elementary Particles". Sci. American. August. 1991.
Close, F. The Cosmic Onicn: Quarks and the Nature of the Universe. The American Institute of Physics. 1986.
Fritzsch, H. Quarks, The Stuff of Metter. London. Allen, Lane. 1983.
Gamow, G. "Gravity and Antimatter". Sci. American. March. 1961.
Goldman, T. Etal. "Gravity and Antimatter". Sci. American. March. 1989.
Riordan, M. "The Discovery of Quarks". Science, 29 May 1992.
Sears, F. W.; Zemaasky, M. W.; Young, H. D.; Freedmand, R. A. Física Universitaria. Volumen 2. Addison - Wesley. Longman.
México D.F. 1996. p. 1413-1452.
http://www.monografias.com/trabajos14/electromag/electromag.shtml (52 of 53)25/05/2005 13:49:05
Teoría electromagnética - Monografias.com
Cutnell, J. D.; Johnson, K. W. Física. Limusa, Méxido D.F. 1999. p. 833-901
Cromer, A. H. Física para las Ciencias de la Vida. Reverté. México D.F. 1996. p. 485-548.
DR.CLAUDIO-RAFAEL VASQUEZ-MARTINEZ
Ingeniero industrial. Doctorado en educación.
Profesor investigador titular C.Universidad de Guadalajara.
[email protected]
Alumno:
Adolfo Castillo Mercado
[email protected]
Carrera: Ingeniería en Telemática
puerto Vallarta Jalisco, México
Volver al inicio | Volver arriba
Términos y Condiciones - Haga Publicidad en Monografias.com - Contáctenos
© 1997 Lucas Morea / Sinexi S.A.
http://www.monografias.com/trabajos14/electromag/electromag.shtml (53 of 53)25/05/2005 13:49:05
El Atomo - Monografias.com
Regístrese
Compare
precios
Buscar:
Nuevos
Consulte
a los
expertos
Publicar
Toolbar
Foros
Ayuda
Recomendar
Buscar
Recomendamos:
Barra de
herramientas
gratuita
Avanzada
Agregar a Recomendar
favoritos
Imprimir
Bajar
Trabajo
(Descargar)
El átomo
Átomo, la unidad más pequeña posible de un elemento químico. En la filosofía de la antigua Grecia, la
palabra "átomo" se empleaba para referirse a la parte de materia más pequeño que podía concebirse.
Esa "partícula fundamental", por emplear el término moderno para ese concepto, se consideraba
indestructible. De hecho, átomo significa en griego "no divisible". El conocimiento del tamaño y la
naturaleza del átomo avanzó muy lentamente a lo largo de los siglos ya que la gente se limitaba a
especular sobre él.
Con la llegada de la ciencia experimental en los siglos XVI y XVII (véase química), los avances en la
teoría atómica se hicieron más rápidos. Los químicos se dieron cuenta muy pronto de que todos los
líquidos, gases y sólidos pueden descomponerse en sus constituyentes últimos, o elementos. Por
ejemplo, se descubrió que la sal se componía de dos elementos diferentes, el sodio y el cloro, ligados en
una unión íntima conocida como compuesto químico. El aire, en cambio, resultó ser una mezcla de los
gases nitrógeno y oxígeno.
Teoría de Dalton
John Dalton, profesor y químico británico, estaba fascinado por el rompecabezas de los elementos. A
principios del siglo XIX estudió la forma en que los diversos elementos se combinan entre sí para formar
compuestos químicos. Aunque muchos otros científicos, empezando por los antiguos griegos, habían
afirmado ya que las unidades más pequeñas de una sustancia eran los átomos, se considera a Dalton
como una de las figuras más significativas de la teoría atómica porque la convirtió en algo cuantitativo.
Dalton mostró que los átomos se unían entre sí en proporciones definidas. Las investigaciones
demostraron que los átomos suelen formar grupos llamados moléculas. Cada molécula de agua, por
ejemplo, está formada por un único átomo de oxígeno (O) y dos átomos de hidrógeno (H) unidos por una
http://www.monografias.com/trabajos/atomo/atomo.shtml (1 of 8)25/05/2005 13:49:28
El Atomo - Monografias.com
fuerza eléctrica denominada enlace químico, por lo que el agua se simboliza como HOH o H2O. Véase
Reacción química.
Todos los átomos de un determinado elemento tienen las mismas propiedades químicas. Por tanto,
desde un punto de vista químico, el átomo es la entidad más pequeña que hay que considerar. Las
propiedades químicas de los elementos son muy distintas entre sí; sus átomos se combinan de formas
muy variadas para formar numerosísimos compuestos químicos diferentes. Algunos elementos, como los
gases nobles helio y argón, son inertes; es decir, no reaccionan con otros elementos salvo en condiciones
especiales. Al contrario que el oxígeno, cuyas moléculas son diatómicas (formadas por dos átomos), el
helio y otros gases inertes son elementos monoatómicos, con un único átomo por molécula.
Ley de Avogadro
El estudio de los gases atrajo la atención del físico italiano Amedeo Avogadro, que en 1811 formuló una
importante ley que lleva su nombre (véase ley de Avogadro). Esta ley afirma que dos volúmenes iguales
de gases diferentes contienen el mismo número de moléculas si sus condiciones de temperatura y
presión son las mismas. Si se dan esas condiciones, dos botellas idénticas, una llena de oxígeno y otra
de helio, contendrán exactamente el mismo número de moléculas. Sin embargo, el número de átomos de
oxígeno será dos veces mayor puesto que el oxígeno es diatómico.
Masa atómica
De la ley de Avogadro se desprende que las masas de un volumen patrón de diferentes gases (es decir,
sus densidades) son proporcionales a la masa de cada molécula individual de gas. Si se toma el carbono
como patrón y se le asigna al átomo de carbono un valor de 12,0000 unidades de masa atómica (u),
resulta que el hidrógeno tiene una masa atómica de 1,0079u, el helio de 4,0026, el flúor de 18,9984 y el
sodio de 22,9898. En ocasiones se habla de "peso atómico" aunque lo correcto es "masa atómica". La
masa es una propiedad del cuerpo, mientras que el peso es la fuerza ejercida sobre el cuerpo a causa de
la gravedad.
La observación de que muchas masas atómicas se aproximan a números enteros llevó al químico
británico William Prout a sugerir, en 1816, que todos los elementos podrían estar compuestos por átomos
de hidrógeno. No obstante, medidas posteriores de las masas atómicas demostraron que el cloro, por
ejemplo, tiene una masa atómica de 35,453 (si se asigna al carbono el valor 12). El descubrimiento de
estas masas atómicas fraccionarias pareció invalidar la hipótesis de Prout hasta un siglo después, cuando
se descubrió que generalmente los átomos de un elemento dado no tienen todos la misma masa. Los
átomos de un mismo elemento con diferente masa se conocen como isótopos. En el caso del cloro,
existen dos isótopos en la naturaleza. Los átomos de uno de ellos (cloro 35) tienen una masa atómica
cercana a 35, mientras que los del otro (cloro 37) tienen una masa atómica próxima a 37. Los
experimentos demuestran que el cloro es una mezcla de tres partes de cloro 35 por cada parte de cloro
37. Esta proporción explica la masa atómica observada en el cloro.
Durante la primera mitad del siglo XX era corriente utilizar el oxígeno natural como patrón para expresar
las masas atómicas, asignándole una masa atómica entera de 16. A principios de la década de 1960, las
http://www.monografias.com/trabajos/atomo/atomo.shtml (2 of 8)25/05/2005 13:49:28
El Atomo - Monografias.com
asociaciones internacionales de química y física acordaron un nuevo patrón y asignaron una masa
atómica exactamente igual a 12 a un isótopo de carbono abundante, el carbono 12. Este nuevo patrón es
especialmente apropiado porque el carbono 12 se emplea con frecuencia como patrón de referencia para
calcular masas atómicas mediante el espectrómetro de masas. Además, la tabla de masas atómicas
basada en el carbono 12 se aproxima bastante a la tabla antigua basada en el oxígeno natural.
La tabla periódica
A mediados del siglo XIX, varios químicos se dieron cuenta de que las similitudes en las propiedades
químicas de diferentes elementos suponían una regularidad que podía ilustrarse ordenando los
elementos de forma tabular o periódica. El químico ruso Dmitri Mendeléiev propuso una tabla de
elementos llamada tabla periódica, en la que los elementos están ordenados en filas y columnas de forma
que los elementos con propiedades químicas similares queden agrupados. Según este orden, a cada
elemento se le asigna un número (número atómico) de acuerdo con su posición en la tabla, que va desde
el 1 para el hidrógeno hasta el 92 para el uranio, que tiene el átomo más pesado de todos los elementos
que existen de forma natural en nuestro planeta. Como en la época de Mendeléiev no se conocían todos
los elementos, se dejaron espacios en blanco en la tabla periódica correspondientes a elementos que
faltaban. Las posteriores investigaciones, facilitadas por el orden que los elementos conocidos ocupaban
en la tabla, llevaron al descubrimiento de los elementos restantes. Los elementos con mayor número
atómico tienen masas atómicas mayores, y la masa atómica de cada isótopo se aproxima a un número
entero, de acuerdo con la hipótesis de Prout.
El tamaño del átomo
La curiosidad acerca del tamaño y masa del átomo atrajo a cientos de científicos durante un largo periodo
en el que la falta de instrumentos y técnicas apropiadas impidió lograr respuestas satisfactorias.
Posteriormente se diseñaron numerosos experimentos ingeniosos para determinar el tamaño y peso de
los diferentes átomos. El átomo más ligero, el de hidrógeno, tiene un diámetro de aproximadamente 1010 m (0,0000000001 m) y una masa alrededor de 1,7 × 10-27 kg. (la fracción de un kilogramo
representada por 17 precedido de 26 ceros y una coma decimal). Un átomo es tan pequeño que una sola
gota de agua contiene más de mil trillones de átomos.
Radiactividad
Una serie de descubrimientos importantes realizados hacia finales del siglo XIX dejó claro que el átomo
no era una partícula sólida de materia que no pudiera ser dividida en partes más pequeñas. En 1895, el
científico alemán Wilhelm Conrad Roentgen anunció el descubrimiento de los rayos X, que pueden
atravesar láminas finas de plomo. En 1897, el físico inglés J. J. Thomson descubrió el electrón, una
partícula con una masa muy inferior al de cualquier átomo. Y, en 1896, el físico francés Antoine Henri
Becquerel comprobó que determinadas sustancias, como las sales de uranio, generaban rayos
penetrantes de origen misterioso. El matrimonio de científicos franceses formado por Marie y Pierre Curie
aportó una contribución adicional a la comprensión de esas sustancias "radiactivas" (véase radio). Como
resultado de las investigaciones del físico británico Ernest Rutherford y sus coetáneos, se demostró que
el uranio y algunos otros elementos pesados, como el torio o el radio, emiten tres clases diferentes de
http://www.monografias.com/trabajos/atomo/atomo.shtml (3 of 8)25/05/2005 13:49:28
El Atomo - Monografias.com
radiación, inicialmente denominadas rayos alfa (a), beta (b) y gamma (g). Las dos primeras, que según se
averiguó están formadas por partículas eléctricamente cargadas, se denominan actualmente partículas
alfa y beta. Posteriormente se comprobó que las partículas alfa son núcleos de helio (ver más abajo) y las
partículas beta son electrones. Estaba claro que el átomo se componía de partes más pequeñas. Los
rayos gamma fueron finalmente identificados como ondas electromagnéticas, similares a los rayos X pero
con menor longitud de onda (véase radiación electromagnética).
El átomo nuclear de Rutherford
El descubrimiento de la naturaleza de las emisiones radiactivas permitió a los físicos profundizar en el
átomo, que según se vio consistía principalmente en espacio vacío. En el centro de ese espacio se
encuentra el núcleo, que sólo mide, aproximadamente, una diezmilésima parte del diámetro del átomo.
Rutherford dedujo que la masa del átomo está concentrada en su núcleo. También postuló que los
electrones, de los que ya se sabía que formaban parte del átomo, viajaban en órbitas alrededor del
núcleo. El núcleo tiene una carga eléctrica positiva; los electrones tienen carga negativa. La suma de las
cargas de los electrones es igual en magnitud a la carga del núcleo, por lo que el estado eléctrico normal
del átomo es neutro.
El átomo de Bohr
Para explicar la estructura del átomo, el físico danés Niels Bohr desarrolló en 1913 una hipótesis
conocida como teoría atómica de Bohr (véase teoría cuántica). Bohr supuso que los electrones están
dispuestos en capas definidas, o niveles cuánticos, a una distancia considerable del núcleo. La
disposición de los electrones se denomina configuración electrónica. El número de electrones es igual al
número atómico del átomo: el hidrógeno tiene un único electrón orbital, el helio dos y el uranio 92. Las
capas electrónicas se superponen de forma regular hasta un máximo de siete, y cada una de ellas puede
albergar un determinado número de electrones. La primera capa está completa cuando contiene dos
electrones, en la segunda caben un máximo de ocho, y las capas sucesivas pueden contener cantidades
cada vez mayores. Ningún átomo existente en la naturaleza tiene la séptima capa llena. Los "últimos"
electrones, los más externos o los últimos en añadirse a la estructura del átomo, determinan el
comportamiento químico del átomo.
Todos los gases inertes o nobles (helio, neón, argón, criptón, xenón y radón) tienen llena su capa
electrónica externa. No se combinan químicamente en la naturaleza, aunque los tres gases nobles más
pesados (criptón, xenón y radón) pueden formar compuestos químicos en el laboratorio. Por otra parte,
las capas exteriores de los elementos como litio, sodio o potasio sólo contienen un electrón. Estos
elementos se combinan con facilidad con otros elementos (transfiriéndoles su electrón más externo) para
formar numerosos compuestos químicos. De forma equivalente, a los elementos como el flúor, el cloro o
el bromo sólo les falta un electrón para que su capa exterior esté completa. También se combinan con
facilidad con otros elementos de los que obtienen electrones.
Las capas atómicas no se llenan necesariamente de electrones de forma consecutiva. Los electrones de
los primeros 18 elementos de la tabla periódica se añaden de forma regular, llenando cada capa al
máximo antes de iniciar una nueva capa. A partir del elemento decimonoveno, el electrón más externo
comienza una nueva capa antes de que se llene por completo la capa anterior. No obstante, se sigue
http://www.monografias.com/trabajos/atomo/atomo.shtml (4 of 8)25/05/2005 13:49:28
El Atomo - Monografias.com
manteniendo una regularidad, ya que los electrones llenan las capas sucesivas con una alternancia que
se repite. El resultado es la repetición regular de las propiedades químicas de los átomos, que se
corresponde con el orden de los elementos en la tabla periódica.
Resulta cómodo visualizar los electrones que se desplazan alrededor del núcleo como si fueran planetas
que giran en torno al Sol. No obstante, esta visión es mucho más sencilla que la que se mantiene
actualmente. Ahora se sabe que es imposible determinar exactamente la posición de un electrón en el
átomo sin perturbar su posición. Esta incertidumbre se expresa atribuyendo al átomo una forma de nube
en la que la posición de un electrón se define según la probabilidad de encontrarlo a una distancia
determinada del núcleo. Esta visión del átomo como "nube de probabilidad" ha sustituido al modelo de
sistema solar.
Líneas espectrales
Uno de los grandes éxitos de la física teórica fue la explicación de las líneas espectrales características
de numerosos elementos (véase Espectroscopia: Líneas espectrales). Los átomos excitados por energía
suministrada por una fuente externa emiten luz de frecuencias bien definidas. Si, por ejemplo, se
mantiene gas hidrógeno a baja presión en un tubo de vidrio y se hace pasar una corriente eléctrica a
través de él, desprende luz visible de color rojizo. El examen cuidadoso de esa luz mediante un
espectroscopio muestra un espectro de líneas, una serie de líneas de luz separadas por intervalos
regulares. Cada línea es la imagen de la ranura del espectroscopio que se forma en un color
determinado. Cada línea tiene una longitud de onda definida y una determinada energía asociada. La
teoría de Bohr permite a los físicos calcular esas longitudes de onda de forma sencilla. Se supone que los
electrones pueden moverse en órbitas estables dentro del átomo. Mientras un electrón permanece en una
órbita a distancia constante del núcleo, el átomo no irradia energía. Cuando el átomo es excitado, el
electrón salta a una órbita de mayor energía, a más distancia del núcleo. Cuando vuelve a caer a una
órbita más cercana al núcleo, emite una cantidad discreta de energía que corresponde a luz de una
determinada longitud de onda. El electrón puede volver a su órbita original en varios pasos intermedios,
ocupando órbitas que no estén completamente llenas. Cada línea observada representa una determinada
transición electrónica entre órbitas de mayor y menor energía.
En muchos de los elementos más pesados, cuando un átomo está tan excitado que resultan afectados
los electrones internos cercanos al núcleo, se emite radiación penetrante (rayos X). Estas transiciones
electrónicas implican cantidades de energía muy grandes.
El núcleo atómico
En 1919, Rutherford expuso gas nitrógeno a una fuente radiactiva que emitía partículas alfa. Algunas de
estas partículas colisionaban con los núcleos de los átomos de nitrógeno. Como resultado de estas
colisiones, los átomos de nitrógeno se transformaban en átomos de oxígeno. El núcleo de cada átomo
transformado emitía una partícula positivamente cargada. Se comprobó que esas partículas eran
idénticas a los núcleos de átomos de hidrógeno. Se las denominó protones. Las investigaciones
posteriores demostraron que los protones forman parte de los núcleos de todos los elementos.
http://www.monografias.com/trabajos/atomo/atomo.shtml (5 of 8)25/05/2005 13:49:28
El Atomo - Monografias.com
No se conocieron más datos sobre la estructura del núcleo hasta 1932, cuando el físico británico James
Chadwick descubrió en el núcleo otra partícula, el neutrón, que tiene casi exactamente la misma masa
que el protón pero carece de carga eléctrica. Entonces se vio que el núcleo está formado por protones y
neutrones. En cualquier átomo dado, el número de protones es igual al número de electrones y, por tanto,
al número atómico del átomo. Los isótopos son átomos del mismo elemento (es decir, con el mismo
número de protones) que tienen diferente número de neutrones. En el caso del cloro, uno de los isótopos
se identifica con el símbolo 35Cl, y su pariente más pesado con 37Cl. Los superíndices identifican la
masa atómica del isótopo, y son iguales al número total de neutrones y protones en el núcleo del átomo.
A veces se da el número atómico como subíndice, como por ejemplo }Cl.
Los núcleos menos estables son los que contienen un número impar de neutrones y un número impar de
protones; todos menos cuatro de los isótopos correspondientes a núcleos de este tipo son radiactivos. La
presencia de un gran exceso de neutrones en relación con los protones también reduce la estabilidad del
núcleo; esto sucede con los núcleos de todos los isótopos de los elementos situados por encima del
bismuto en la tabla periódica, y todos ellos son radiactivos. La mayor parte de los núcleos estables
conocidos contiene un número par de protones y un número par de neutrones.
Radiactividad artificial
Los experimentos llevados a cabo por los físicos franceses Frédéric e Irène Joliot-Curie a principios de la
década de 1930 demostraron que los átomos estables de un elemento pueden hacerse artificialmente
radiactivos bombardeándolos adecuadamente con partículas nucleares o rayos. Estos isótopos
radiactivos (radioisótopos) se producen como resultado de una reacción o transformación nuclear. En
dichas reacciones, los algo más de 270 isótopos que se encuentran en la naturaleza sirven como objetivo
de proyectiles nucleares. El desarrollo de "rompeátomos", o aceleradores, que proporcionan una energía
elevada para lanzar estas partículas-proyectil ha permitido observar miles de reacciones nucleares.
Reacciones nucleares
En 1932, dos científicos británicos, John D. Cockcroft y Ernest T. S. Walton, fueron los primeros en usar
partículas artificialmente aceleradas para desintegrar un núcleo atómico. Produjeron un haz de protones
acelerados hasta altas velocidades mediante un dispositivo de alto voltaje llamado multiplicador de
tensión. A continuación se emplearon esas partículas para bombardear un núcleo de litio. En esa
reacción nuclear, el litio 7 (7Li) se escinde en dos fragmentos, que son núcleos de átomos de helio. La
reacción se expresa mediante la ecuación
Aceleradores de partículas
Alrededor de 1930, el físico estadounidense Ernest O. Lawrence desarrolló un acelerador de partículas
llamado ciclotrón. Esta máquina genera fuerzas eléctricas de atracción y repulsión que aceleran las
partículas atómicas confinadas en una órbita circular mediante la fuerza electromagnética de un gran
imán. Las partículas se mueven hacia fuera en espiral bajo la influencia de estas fuerzas eléctricas y
magnéticas, y alcanzan velocidades extremadamente elevadas. La aceleración se produce en el vacío
para que las partículas no colisionen con moléculas de aire. A partir del ciclotrón se desarrollaron otros
aceleradores capaces de proporcionar energías cada vez más altas a las partículas. Como los aparatos
necesarios para generar fuerzas magnéticas intensas son colosales, los aceleradores de alta energía
http://www.monografias.com/trabajos/atomo/atomo.shtml (6 of 8)25/05/2005 13:49:28
El Atomo - Monografias.com
suponen instalaciones enormes y costosas.
Fuerzas nucleares
La teoría nuclear moderna se basa en la idea de que los núcleos están formados por neutrones y
protones que se mantienen unidos por fuerzas "nucleares" extremadamente poderosas. Para estudiar
estas fuerzas nucleares, los físicos tienen que perturbar los neutrones y protones bombardeándolos con
partículas extremadamente energéticas. Estos bombardeos han revelado más de 200 partículas
elementales, minúsculos trozos de materia, la mayoría de los cuales, sólo existe durante un tiempo
mucho menor a una cienmillonésima de segundo.
Este mundo subnuclear salió a la luz por primera vez en los rayos cósmicos. Estos rayos están
constituidos por partículas altamente energéticas que bombardean constantemente la Tierra desde el
espacio exterior; muchas de ellas atraviesan la atmósfera y llegan incluso a penetrar en la corteza
terrestre. La radiación cósmica incluye muchos tipos de partículas, de las que algunas tienen energías
que superan con mucho a las logradas en los aceleradores de partículas. Cuando estas partículas de alta
energía chocan contra los núcleos, pueden crearse nuevas partículas. Entre las primeras en ser
observadas estuvieron los muones (detectados en 1937). El muón es esencialmente un electrón pesado,
y puede tener carga positiva o negativa. Es aproximadamente 200 veces más pesado que un electrón. La
existencia del pión fue profetizada en 1935 por el físico japonés Yukawa Hideki, y fue descubierto en
1947. Según la teoría más aceptada, las partículas nucleares se mantienen unidas por "fuerzas de
intercambio" en las que se intercambian constantemente piones comunes a los neutrones y los protones.
La unión de los protones y los neutrones a través de los piones es similar a la unión en una molécula de
dos átomos que comparten o intercambian un par de electrones común. El pión, aproximadamente 270
veces más pesado que el electrón, puede tener carga positiva, negativa o nula.
Partículas elementales
Durante mucho tiempo, los físicos han buscado una teoría para poner orden en el confuso mundo de las
partículas. En la actualidad, las partículas se agrupan según la fuerza que domina sus interacciones.
Todas las partículas se ven afectadas por la gravedad, que sin embargo es extremadamente débil a
escala subatómica. Los hadrones están sometidos a la fuerza nuclear fuerte y al electromagnetismo;
además del neutrón y el protón, incluyen los hiperones y mesones. Los leptones "sienten" las fuerzas
electromagnética y nuclear débil; incluyen el tau, el muón, el electrón y los neutrinos. Los bosones (una
especie de partículas asociadas con las interacciones) incluyen el fotón, que "transmite" la fuerza
electromagnética, las partículas W y Z, portadoras de la fuerza nuclear débil, y el hipotético portador de la
gravitación (gravitón). La fuerza nuclear débil aparece en procesos radiactivos o de desintegración de
partículas, como la desintegración alfa (la liberación de un núcleo de helio por parte de un núcleo atómico
inestable). Además, los estudios con aceleradores han determinado que por cada partícula existe una
antipartícula con la misma masa, cuya carga u otra propiedad electromagnética tiene signo opuesto a la
de la partícula correspondiente. Véase Antimateria.
En 1963, los físicos estadounidenses Murray Gell-Mann y George Zweig propusieron la teoría de que los
hadrones son en realidad combinaciones de otras partículas elementales llamadas quarks, cuyas
interacciones son transmitidas por gluones, una especie de partículas. Esta es la teoría subyacente de las
http://www.monografias.com/trabajos/atomo/atomo.shtml (7 of 8)25/05/2005 13:49:28
El Atomo - Monografias.com
investigaciones actuales, y ha servido para predecir la existencia de otras partículas.
Liberación de la energía nuclear
En 1905, Albert Einstein desarrolló la ecuación que relaciona la masa y la energía, E = mc2, como parte
de su teoría de la relatividad especial. Dicha ecuación afirma que una masa determinada (m) está
asociada con una cantidad de energía (E) igual a la masa multiplicada por el cuadrado de la velocidad de
la luz ©. Una cantidad muy pequeña de masa equivale a una cantidad enorme de energía. Como más del
99% de la masa del átomo reside en su núcleo, cualquier liberación de grandes cantidades de energía
atómica debe provenir del núcleo.
Hay dos procesos nucleares que tienen gran importancia práctica porque proporcionan cantidades
enormes de energía: la fisión nuclear -la escisión de un núcleo pesado en núcleos más ligeros- y la fusión
termonuclear -la unión de dos núcleos ligeros (a temperaturas extremadamente altas) para formar un
núcleo más pesado. El físico estadounidense de origen italiano Enrico Fermi logró realizar la fisión en
1934, pero la reacción no se reconoció como tal hasta 1939, cuando los científicos alemanes Otto Hahn y
Fritz Strassmann anunciaron que habían fisionado núcleos de uranio bombardeándolos con neutrones.
Esta reacción libera a su vez neutrones, con lo que puede causar una reacción en cadena con otros
núcleos. En la explosión de una bomba atómica se produce una reacción en cadena incontrolada. Las
reacciones controladas, por otra parte, pueden utilizarse para producir calor y generar así energía
eléctrica, como ocurre en los reactores nucleares.
La fusión termonuclear se produce en las estrellas, entre ellas el Sol, y constituye su fuente de calor y luz.
La fusión incontrolada se da en la explosión de una bomba de hidrógeno. En la actualidad, se está
intentando desarrollar un sistema de fusión controlada. Véase Energía nuclear; Armas nucleares.
Trabajo enviado por:
Ignacio Romero
[email protected]
Volver al inicio | Volver arriba
Términos y Condiciones - Haga Publicidad en Monografias.com - Contáctenos
© 1997 Lucas Morea / Sinexi S.A.
http://www.monografias.com/trabajos/atomo/atomo.shtml (8 of 8)25/05/2005 13:49:28
Dinámica interpersonal y de grupos- Monografias.com
Regístrese
Compare
precios
Nuevos
Consulte
a los
expertos
Buscar:
Publicar
Toolbar
Foros
Ayuda
Recomendar
Buscar
Recomendamos:
Barra de
herramientas
gratuita
Avanzada
Agregar a Recomendar
favoritos
Imprimir
Bajar
Trabajo
(Descargar)
Dinámica interpersonal y de grupos
Indice
1. Naturaleza del conflicto
2. Comportamiento asertivo
3. Análisis transaccional
4. Dinámica del grupo
5. Métodos estructurados
6. Debilidades de los grupos
1. Naturaleza del conflicto
El conflicto surge del desacuerdo respecto a las metas o a los métodos con que se alcanzan
Una encuesta revela que el 20% del tiempo de los gerentes lo gastan resolviendo problemas.
El conflicto interpersonal surge de diversas fuentes, entre ellos.
●
●
●
●
●
Cambio organizacional.
Choques de personalidad.
Distintos conjuntos de valores.
Amenazas del estatus.
Percepciones y puntos de vista contrarios.
Efectos Del Conflicto:
A menudo los participantes en el conflicto lo consideran como una experiencia destructiva, pero estamos
http://www.monografias.com/trabajos14/dinamica-grupos/dinamica-grupos.shtml (1 of 6)25/05/2005 13:49:41
Dinámica interpersonal y de grupos- Monografias.com
ante una concepción limitada experiencia destructiva, pero estamos ante una concepción limitada.
Ventajas:
Una de las ventajas del conflicto consiste en que se estimula a los individuos a buscar mejores métodos
que les aporten resultados mas satisfactorio. Las impulso a ser más creativos y probar nuevas ideas.
Los problemas ocultos se traen a la superficie y entonces pueden afrontarse y resolverse.
Desventajas:
También existen posibles desventajas, en especial si el conflicto duro mucho time ese torno demasiado
intenso. En el nivel interpersonal, puede deteriorarse la cooperación y el trabajo en equipo.
Dos Tipos De Conflicto:
●
Conflicto Interpersonal.
Los conflictos interpersonales constituyen un serio problema para muchos porque afecten profundamente
a sus emociones.
Es necesario proteger la autoimagen y la autoestima contra el daño que puedan ocasionarles los demás.
Cuando estos conceptos de si mismos se ven amenazadas ocurre un serio malestar y la relación se
deteriora.
●
Conflicto Intergrupal:
Los conflictos entre grupos de diferentes departamentos también causan problemas. En una sola escala
menor, mas recuerdan a las guerras entre pandillas juveniles.
Cada grupo se propone minar la fuerza del otro adquirir poder y mejorar su imagen.
Los conflictos provienen de causas, diversas distintos puntos de vista.
Resultados Y Métodos De Resolver Conflictos:
El conflicto puede dar origen o cuatro resultados bien diferenciados, según la forma en que intenten
resolverlo los participantes.
Ganador – Perdedor
Ganador – Ganador
Perdedor – Perdedor
Perdedor - Ganador
2. Comportamiento asertivo
Afrontar el conflicto no es fácil para algunas personas. Cuando se ven en la necesidad de los negocios
http://www.monografias.com/trabajos14/dinamica-grupos/dinamica-grupos.shtml (2 of 6)25/05/2005 13:49:41
Dinámica interpersonal y de grupos- Monografias.com
con otros, algunos directores o gerentes pueden sentirse inferiores o cohibidos ante el poder del otro.
En tales circunstancias tienden a reprimir sus sentimientos o a dejarse llevar por el enojo. Ninguna de
esas respuestas es realmente productiva.
La Asertividad.- Es una alternativa constructiva consiste en practicar comportamientos asertivos. La
asertividad es el proceso retroalimentación honesta. El individuo asertivo no tiene miedo de pedirle a la
otra persona que modifique su conducta ofensiva y no se siente incómodo por tener que rechazar las
peticiones no razonables de otro. La capacitación en la asertividad consiste en enseñarle a la gente a
adquirir formas eficaces de sortear varias situaciones productoras de ansiedad.
Las personas asertivas son francas, honestas y expresivas. Se sienten seguras de sí mismas, conquistan
el respecto y hacen que los demás se sientan valorados.
En cambio, los individuos agresivos pueden humillar a los demás, y las personas no asertivas son objeto
de piedad o de desprecio por parte de la gente. Ambas alternativas de la asertividad suelen ser menos
adecuadas para alcanzar la meta deseada.
Etapas de la Asertividad.- Ser asertivo en una situación requiere cinco etapas, como se aprecia en la
Etapas de la Asertividad. Cuando se hallan ante una situación intolerable, las personas asertivas la
describen, expresan sus sentimientos y sienten empatía por la posición del otro. Y entonces ofrecen
alternativas y señalan las consecuencias de las opciones que proponen. Los cinco pasos o etapas no son
necesarios en todas las situaciones. Como mínimo, es importante describir la situación actual y hacer
recomendaciones de cambio. El uso del resto de los paso dependerá de la importancia adiestramiento en
la asertividad generalmente presentan tres pasos que pueden utilizarse, proporcionan un modelo de
papeles para aplicarlo y estimulan a los participantes a practicar el comportamiento asertivo.
Formas De Cómo El Comportamiento Asertivo Es Más Eficaz.El comportamiento asertivo casi siempre es más eficaz cuando integra varios componentes verbales y no
verbales. El contacto ocular es un medio de expresar sinceridad, en tanto que una postura erguida y una
posición directa del cuerpo puede intensificar, el impacto del mensaje. Pueden utilizarse gestos
apropiados, son indispensables las expresiones faciales congruentes y se consiguen efectos
convincentes con un tono y volumen fuertes pero modulados de la voz. Quizá lo más importante es la
expresión Espontánea y decidida de una reacción honesta, como "Me molesta mucho, Antonio, que
siempre entregues el informe a la hora de salir".
3. Análisis transaccional
Cuando la gente interactúa en formas asertivas y no asertivas, se dan una transacción en que una
persona responde a otra. El estudio de esas transacciones recibe el nombre de análisis transaccional
(AT). Este análisis fue desarrollado en la década de 1950 por Eric Berne para aplicarlo en la psicoterapia.
Su aplicación a las interacciones ordinarias se hizo evidente muy pronto y fue divulgado por el libro de
Berne Games People Play (1964), así como por las obras de Harris, Jongeward y otros. El objetivo del
análisis transaccional es lograr una mejor comprensión de cómo las personas se relacionan entre sí, de
modo que mejoren la comunicación y las relaciones humanas.
Tipos De Transacciones:
http://www.monografias.com/trabajos14/dinamica-grupos/dinamica-grupos.shtml (3 of 6)25/05/2005 13:49:41
Dinámica interpersonal y de grupos- Monografias.com
●
●
Transacciones complementarias.
Transacciones no complementarias.
Transacciones No Complementarias:
Llamadas también transacciones cruzadas, se producen cuando las líneas del estimulo y respuesta no
son paralelas.
● Entonces el supervisor trata al empleado mediante una transacción de adulto con adulto.
●
Transacciones Complementarias:
Son cuando los estados del ego del emisor y receptor durante la transacción inicial simplemente se
invierten en la respuesta.
● También podemos decir que cuando el patrón entre los estados se describe en forma gráfica las líneas
son paralelas, en el cual el supervisor habla el empleado como lo hace un padre con su hijo.
●
Análisis Transaccional Y Liderazgo:
Cuando los directores o gerentes realizan transacciones a partir de un solo estado de ego y limitan su
opción de estilos de liderazgo.
Análisis Transaccional Y Resolución Del Conflicto:
● Hay varios nexos naturales entre el análisis transaccional y los métodos de resolución del conflicto que
se describieron.
● El estado del padre puede llevar a utilizar una estrategia de fuerza, en tanto que el estado del hijo
puede suavizar el conflicto o intentar evitarlo.
Beneficios Del Análisis Transaccional:
Las organizaciones que lo han usado señalan que les a dado resultado de un éxito moderado.
● El adiestramiento en el análisis transaccional proporciona a los empleados ideas nuevas sobre su
propia personalidad, además les ayuda a entender por que otros responden algunas veces en
determinada forma.
● Una de las grandes ventajas o beneficios es el mejoramiento de la comunicación interpersonal.
●
4. Dinámica del grupo
Es el proceso a través del cual la gente interactúa directamente en grupos pequeños.
Los grupos.- poseen propiedades diferentes a las de sus miembros del mismo modo que las moléculas
difieren de los átomos que las integran.
Las juntas.- Son forma común de actividad de grupo, pudiendo dar origen a decisiones de calidad que
cuentan con el apoyo de los participantes.
El Comité.- Es un tipo especifico de junta en el cual a los miembros en su papel de grupo se les ha
delegado autoridad para resolver el problema en cuestión. La autoridad en el comité suele expresarse en
http://www.monografias.com/trabajos14/dinamica-grupos/dinamica-grupos.shtml (4 of 6)25/05/2005 13:49:41
Dinámica interpersonal y de grupos- Monografias.com
términos de un voto por cada miembro.
Factores que deben considerarse.- Son 3:
Tamaño: Tiende a afectar la forma en que funciona.
Composición: Solucionan problemas a los grupos de trabajo y a menudo tienen la oportunidad de
solucionar a sus integrantes.
● Agendas (orden del día): Las juntas trabajen simultáneamente en dos niveles uno es tarea oficial del
grupo (llamada agenda superficial) y la otra es la que mantienen ocultos bajo la mesa de conferencias
(llamada agendas ocultas adquiere vida y vienen a complicar la situación).
●
●
5. Métodos estructurados
Los métodos que dan buenos resultados es el caso de objetivos son los siguientes: Lluvia de ideas,
grupos normales, y la toma de decisiones con técnica delphi.
Lluvia de Ideas: Método común de estimular el pensamiento creativo.
La finalidad de este método es atentar a la gente a que exprese ideas originales sin pensar en lo que
piensen los demás. Estas sesiones duran de 10 minutos a una hora, solo se requiere el conocimiento
general del tema.
Las ventajas que nos ofrece éste método son el entusiasmo, participación mas amplia, el hecho de
inspirarse en el intercambio de ideas.
Grupos Nominales: A los individuos se les presenta un problema y cada uno llega a una solución de
manera independiente, luego las sugerencias se intercambian y sus sugerencias se discuten. Después
todos escogen por medio de voto secreto, las mejores ideas.
Toma de Decisiones con la Técnica Delphi: Se les da cuestionarios a los participantes.
A los miembros se les escoge por su experiencia; se les pide expresar su evaluación de un problema o
predecir una situación futura y las respuestas se resumen y se comunican a los miembros para que las
analicen.
Resultados Posibles:
Apoyo a las decisiones: El resultado secundario mas importante de las juntas es que los que participan en
la toma de una decisión se sientan motivadas para aceptar y ponerla en práctica.
Calidad de las Decisiones: Los grupos, además de apoyar las decisiones son un medio muy eficaz para
resolver problemas. Tienen mas información que cualquier individuo.
Otro aspecto consenso: Es cuando todos los nombres ponen en prácticas decisiones que respaldaron en
conjunto. Cuando una votación es dividida hay desacuerdos.
Pregunta: ¿ Qué ventajas nos ofrece el método de Lluvia de Ideas?.
Nos da las ventajas que todos van a participar en las tomas de decisiones, con mucho entusiasmo y el
hecho de que todos pueden intercambiar ideas entre ellos, además nos ayuda a estimular el pensamiento
creativo.
6. Debilidades de los grupos
http://www.monografias.com/trabajos14/dinamica-grupos/dinamica-grupos.shtml (5 of 6)25/05/2005 13:49:41
Dinámica interpersonal y de grupos- Monografias.com
Son 5 debilidades que son las siguientes:
1. Lentitud y Costo: Las juntas de todo tipo son una forma lenta y cara de hacer las cosas. En
2.
3.
4.
5.
6.
ocasiones la lentitud es algo favorables, es decir hay más tiempos para reflexionar para hacer un
análisis objetivo de una idea y proponer alternativas.
El Efecto Nivelador: Es una tendencia de un gripo a somete el pensamiento individual a la calidad
promedio del pensamiento colectivo o "pensamiento de grupo".
Polarización: Es un comportamiento alterno. En ella los individuos traen al grupo sus
predisposiciones respecto a un tema o asunto.
Intensificación del compromiso: Con el problema del pensamiento de grupo se relaciona
estrechamente la idea de que los miembros de el pueden seguir defendiendo una línea de acción
pese la evidencia que conducirá al fracaso.
Responsabilidad dividida: Constituye un problema siempre que se adopten decisiones en grupo.
Sin duda las decisiones de grupo diluyen la responsabilidad. Además brinda a los individuos la
oportunidad de evadir su responsabilidad.
Trabajo enviado por:
Affón Bravo, Jimmy
[email protected]
Facultad De Administración
Volver al inicio | Volver arriba
Términos y Condiciones - Haga Publicidad en Monografias.com - Contáctenos
© 1997 Lucas Morea / Sinexi S.A.
http://www.monografias.com/trabajos14/dinamica-grupos/dinamica-grupos.shtml (6 of 6)25/05/2005 13:49:41
La estática de fluidos - Monografias.com
Regístrese
Nuevos
Compare
precios
Buscar:
Consulte
a los
expertos
Publicar
Toolbar
Foros
Ayuda
Recomendar
Buscar
Recomendamos:
Barra de
herramientas
gratuita
Avanzada
Agregar a Recomendar
favoritos
Imprimir
Bajar
Trabajo
(Descargar)
La estática de fluidos
Indice
1. Introducción
2. La densidad de los cuerpos
3. Densidad y peso específico
4. Densidad relativa
5. El fundamento del densímetro
6. La Presión
7. La Hidrostática
8. El principio de Pascal y sus aplicaciones
9. El principio de los vasos comunicantes
10. Aplicación de la ecuación fundamental de la hidrostática
11. Aplicación del principio de pascal
12. Empuje hidrostático: principio de Arquímedes
13. Aplicación del principio de arquímedes
14. La estática de los gases
15. Manómetros y barómetros
1. Introducción
La estática de fluidos estudia el equilibrio de gases y líquidos. A partir de los conceptos de densidad y de
presión se obtiene la ecuación fundamental de la hidrostática, de la cual el principio de Pascal y el de
Arquímedes pueden considerarse consecuencias. El hecho de que los gases, a diferencia de los líquidos,
http://www.monografias.com/trabajos5/estat/estat.shtml (1 of 14)25/05/2005 13:50:13
La estática de fluidos - Monografias.com
puedan comprimirse hace que el estudio de ambos tipos de fluidos tengan algunas características
diferentes. En la atmósfera se dan los fenómenos de presión y de empuje que pueden ser estudiados de
acuerdo con los principios de la estática de gases.
Se entiende por fluido un estado de la materia en el que la forma de los cuerpos no es constante, sino
que se adapta a la del recipiente que los contiene. La materia fluida puede ser trasvasada de un
recipiente a otro, es decir, tiene la capacidad de fluir. Los líquidos y los gases corresponden a dos tipos
diferentes de fluidos. Los primeros tienen un volumen constante que no puede mortificarse
apreciablemente por compresión. Se dice por ello que son fluidos incompresibles. Los segundos no
tienen un volumen propio, sino que ocupan el del recipiente que los contiene; son fluidos compresibles
porque, a diferencia de los líquidos, sí pueden ser comprimidos.
El estudio de los fluidos en equilibrio constituye el objeto de la estática de fluidos, una parte de la física
que comprende la hidrostática o estudio de los líquidos en equilibrio, y la aerostática o estudio de los
gases en equilibrio y en particular del aire.
2. La densidad de los cuerpos
Densidad
Los cuerpos difieren por lo general en su masa y en su volumen. Estos dos atributos físicos varían de un
cuerpo a otro, de modo que si consideramos cuerpos de la misma naturaleza, cuanto mayor es el
volumen, mayor es la masa del cuerpo considerado. No obstante, existe algo característico del tipo de
materia que compone al cuerpo en cuestión y que explica el porqué dos cuerpos de sustancias diferentes
que ocupan el mismo volumen no tienen la misma masa o viceversa.
Aun cuando para cualquier sustancia la masa y el volumen son directamente proporcionales, la relación
de proporcionalidad es diferente para cada sustancia. Es precisamente la constante de proporcionalidad
de esa relación la que se conoce por densidad y se representa por la letra griega
m = cte · V
es decir:
m=·V
Despejando de la anterior ecuación resulta:
ecuación que facilita la definición de y también su significado físico.
http://www.monografias.com/trabajos5/estat/estat.shtml (2 of 14)25/05/2005 13:50:13
La estática de fluidos - Monografias.com
La densidad de una sustancia es la masa que corresponde a un volumen unidad de dicha sustancia. Su
unidad en el SI es el cociente entre la unidad de masa y la del volumen, es decir kg/m3.
A diferencia de la masa o el volumen, que dependen de cada objeto, su cociente depende solamente del
tipo de material de que está constituido y no de la forma ni del tamaño de aquél. Se dice por ello que la
densidad es una propiedad o atributo característico de cada sustancia. En los sólidos la densidad es
aproximadamente constante, pero en los líquidos, y particularmente en los gases, varía con las
condiciones de medida. Así en el caso de los líquidos se suele especificar la temperatura a la que se
refiere el valor dado para la densidad y en el caso de los gases se ha de indicar, junto con dicho valor, la
presión.
3. Densidad y peso específico
La densidad está relacionada con el grado de acumulación de materia (un cuerpo compacto es, por lo
general, más denso que otro más disperso), pero también lo está con el peso. Así, un cuerpo pequeño
que es mucho más pesado que otro más grande es también mucho más denso. Esto es debido a la
relación P = m · g existente entre masa y peso. No obstante, para referirse al peso por unidad de volumen
la física ha introducido el concepto de peso específico pe que se define como el cociente entre el peso P
de un cuerpo y su volumen
El peso específico representa la fuerza con que la Tierra atrae a un volumen unidad de la misma
sustancia considerada.
La relación entre peso específico y densidad es la misma que la existente entre peso y masa. En efecto:
siendo g la aceleración de la gravedad.
La unidad del peso específico en el SI es el N/m3.
4. Densidad relativa
La densidad relativa de una sustancia es el cociente entre su densidad y la de otra sustancia diferente
que se toma como referencia o patrón:
Para sustancias líquidas se suele tomar como sustancia patrón el agua cuya densidad a 4 ºC es igual a
1000 kg/m3. Para gases la sustancia de referencia la constituye con frecuencia el aire que a 0 ºC de
temperatura y 1 atm de presión tiene una densidad de 1,293 kg/m3. Como toda magnitud relativa, que se
obtiene como cociente entre dos magnitudes iguales, la densidad relativa carece de unidades físicas.
5. El fundamento del densímetro
http://www.monografias.com/trabajos5/estat/estat.shtml (3 of 14)25/05/2005 13:50:13
La estática de fluidos - Monografias.com
La determinación de densidades de líquidos tiene importancia no sólo en la física, sino también en el
mundo del comercio y de la industria. Por el hecho de ser la densidad una propiedad característica (cada
sustancia tiene una densidad diferente) su valor puede emplearse para efectuar una primera
comprobación del grado de pureza de una sustancia líquida.
El densímetro es un sencillo aparato que se basa en el principio de Arquímedes (mas adelante se
explica ) . Es, en esencia, un flotador de vidrio con un lastre de mercurio en su parte inferior (que le hace
sumergirse parcialmente en el líquido) y un extremo graduado directamente en unidades en densidad. El
nivel del líquido marca sobre la escala el valor de su densidad.
En el equilibrio, el peso P del densímetro será igual al empuje E:
P=E
Si se admite, para simplificar el razonamiento, que su forma es la de un cilindro, E será igual, de acuerdo
con el principio de Arquímedes, al peso del volumen V del líquido desalojado, es decir:
donde h es la altura sumergida y S la superficie de la base del cilindro.
Dado que el peso del densímetro es igual a su masa m por la gravedad g, igualándolo al empuje resulta:
es decir:
donde m y S son constantes, luego es inversamente proporcional a la altura sumergida. Midiendo alturas
sumergidas pueden, por tanto, determinarse densidades.
La determinación de la pureza de la leche de vaca es una de las aplicaciones industriales del densímetro.
6. La Presión
Cuando se ejerce una fuerza sobre un cuerpo deformable, los efectos que provoca dependen no sólo de
su intensidad, sino también de cómo esté repartida sobre la superficie del cuerpo. Así, un golpe de
martillo sobre un clavo bien afilado hace que penetre mas en la pared de lo que lo haría otro clavo sin
punta que recibiera el mismo impacto. Un individuo situado de puntillas sobre una capa de nieve blanda
se hunde, en tanto que otro de igual peso que calce raquetas, al repartir la fuerza sobre una mayor
superficie, puede caminar sin dificultad.
El cociente entre la intensidad F de la fuerza aplicada perpendicularmente sobre una superficie dada y el
área S de dicha superficie se denomina presión:
La presión representa la intensidad de la fuerza que se ejerce sobre cada unidad de área de la superficie
http://www.monografias.com/trabajos5/estat/estat.shtml (4 of 14)25/05/2005 13:50:13
La estática de fluidos - Monografias.com
considerada. Cuanto mayor sea la fuerza que actúa sobre una superficie dada, mayor será la presión, y
cuanto menor sea la superficie para una fuerza dada, mayor será entonces la presión resultante.
La presión en los fluidos
El concepto de presión es muy general y por ello puede emplearse siempre que exista una fuerza
actuando sobre una superficie. Sin embargo, su empleo resulta especialmente útil cuando el cuerpo o
sistema sobre el que se ejercen las fuerzas es deformable. Los fluidos no tienen forma propia y
constituyen el principal ejemplo de aquellos casos en los que es más adecuado utilizar el concepto de
presión que el de fuerza.
Cuando un fluido está contenido en un recipiente, ejerce una fuerza sobre sus paredes y, por tanto,
puede hablarse también de presión. Si el fluido está en equilibrio las fuerzas sobre las paredes son
perpendiculares a cada porción de superficie del recipiente, ya que de no serlo existirían componentes
paralelas que provocarían el desplazamiento de la masa de fluido en contra de la hipótesis de equilibrio.
La orientación de la superficie determina la dirección de la fuerza de presión, por lo que el cociente de
ambas, que es precisamente la presión, resulta independiente de la dirección; se trata entonces de una
magnitud escalar.
Unidades de presión
En el SI la unidad de presión es el pascal, se representa por Pa y se define como la presión
correspondiente a una fuerza de un newton de intensidad actuando perpendicularmente sobre una
superficie plana de un metro cuadrado. 1 Pa equivale, por tanto, a 1 N/m2.
Existen, no obstante, otras unidades de presión que sin corresponder a ningún sistema de unidades en
particular han sido consagradas por el uso y se siguen usando en la actualidad junto con el pascal. Entre
ellas se encuentran la atmósfera y el bar.
La atmósfera (atm) se define como la presión que a 0 ºC ejercería el peso de una columna de mercurio
de 76 cm de altura y 1 cm2 de sección sobre su base.
Es posible calcular su equivalencia en N/m2 sabiendo que la densidad del mercurio es igual a 13,6 · 103
kg/m3 y recurriendo a las siguientes relaciones entre magnitudes:
Peso (N) = masa (kg) · 9,8 m/s2
Masa = volumen · densidadComo el volumen del cilindro que forma la columna es igual a la superficie de
la base por la altura, se tendrá:
es decir: 1 atm = 1,013 · 105 Pa.
El bar es realmente un múltiple del pascal y equivale a 105 N/m2. En meteorología se emplea con
frecuencia el milibar (mb) o milésima parte del bar · 1 mb = 102 Pa.
http://www.monografias.com/trabajos5/estat/estat.shtml (5 of 14)25/05/2005 13:50:13
La estática de fluidos - Monografias.com
1 atm = 1 013 mb
7. La Hidrostática
Todos los líquidos pesan, por ello cuando están contenidos en un recipiente las capas superiores oprimen
a las inferiores, generándose una presión debida al peso. La presión en un punto determinado del líquido
deberá depender entonces de la altura de la columna de líquido que tenga por encima suyo.
Considérese un punto cualquiera del líquido que diste una altura h de la superficie libre de dicho líquido.
La fuerza del peso debido a una columna cilíndrica de líquido de base S situada sobre él puede
expresarse en la forma
Fpeso = mg = · V · g = · g · h · S
siendo V el volumen de la columna y la densidad del líquido. Luego la presión debida al peso vendrá dada
por:
la presión en un punto
La definición de la presión como cociente entre la fuerza y la superficie se refiere a una fuerza constante
que actúa perpendicularmente sobre una superficie plana. En los líquidos en equilibrio las fuerzas
asociadas a la presión son en cada punto perpendiculares a la superficie del recipiente, de ahí que la
presión sea considerada como una magnitud escalar cociente de dos magnitudes vectoriales de igual
dirección: la fuerza y el vector superficie. Dicho vector tiene por módulo el área y por dirección la
perpendicular a la superficie.
Cuando la fuerza no es constante, sino que varía de un punto a otro de la superficie S considerada, tiene
sentido hablar de la presión en un punto dado. Para definirla se considera un elemento de superficie S
que rodea al punto; si dicho elemento reduce enormemente su extensión, la fuerza F que actúa sobre él
puede considerarse constante. En tal caso la presión en el punto considerado se definirá en la forma
matemática
esta expresión, que es la derivada de F respecto de S, proporciona el valor de la presión en un punto y
puede calcularse si se conoce la ecuación matemática que indica cómo varía la fuerza con la posición.
Si la fuerza es variable y F representa la resultante de todas las fuerzas que actúan sobre la superficie S
la fórmula
define, en este caso, la presión media.
Si sobre la superficie libre se ejerciera una presión exterior adicional po, como la atmosférica por ejemplo,
la presión total p en el punto de altura h sería
Esta ecuación puede generalizarse al caso de que se trate de calcular la diferencia de presiones p entre
http://www.monografias.com/trabajos5/estat/estat.shtml (6 of 14)25/05/2005 13:50:13
La estática de fluidos - Monografias.com
dos puntos cualesquiera del interior del líquido situados a diferentes alturas, resultando:es deci
que constituye la llamada ecuación fundamental de la hidrostática.
Esta ecuación indica que para un líquido dado y para una presión exterior constante la presión en el
interior depende únicamente de la altura. Por tanto, todos los puntos del líquido que se encuentren al
mismo nivel soportan igual presión. Ello implica que ni la forma de un recipiente ni la cantidad de líquido
que contiene influyen en la presión que se ejerce sobre su fondo, tan sólo la altura de líquido. Esto es lo
que se conoce como paradoja hidrostática, cuya explicación se deduce a modo de consecuencia de la
ecuación fundamental.
8. El principio de Pascal y sus aplicaciones
La presión aplicada en un punto de un líquido contenido en un recipiente se transmite con el mismo valor
a cada una de las partes del mismo.
Este enunciado, obtenido a partir de observaciones y experimentos por el físico y matemático francés
Blas Pascal (1623-1662), se conoce como principio de Pascal.
El principio de Pascal puede ser interpretado como una consecuencia de la ecuación fundamental de la
hidrostática y del carácter incompresible de los líquidos. En esta clase de fluidos la densidad es
constante, de modo que de acuerdo con la ecuación p = po + · g · h si se aumenta la presión en la
superficie libre, por ejemplo, la presión en el fondo ha de aumentar en la misma medida, ya que · g · h no
varía al no hacerlo h.
La prensa hidráulica constituye la aplicación fundamental del principio de Pascal y también un dispositivo
que permite entender mejor su significado. Consiste, en esencia, en dos cilindros de diferente sección
comunicados entre sí, y cuyo interior está completamente lleno de un líquido que puede ser agua o
aceite. Dos émbolos de secciones diferentes se ajustan, respectivamente, en cada uno de los dos
cilindros, de modo que estén en contacto con el líquido. Cuando sobre el émbolo de menor sección S1 se
ejerce una fuerza F1 la presión p1 que se origina en el líquido en contacto con él se transmite
íntegramente y de forma instantánea a todo el resto del líquido; por tanto, será igual a la presión p2 que
ejerce el líquido sobre el émbolo de mayor sección S2, es decir:
p1 = p2
con lo que:
y por tanto:
Si la sección S2 es veinte veces mayor que la S1, la fuerza F1 aplicada sobre el émbolo pequeño se ve
multiplicada por veinte en el émbolo grande.
La prensa hidráulica es una máquina simple semejante a la palanca de Arquímedes, que permite
amplificar la intensidad de las fuerzas y constituye el fundamento de elevadores, prensas, frenos y
http://www.monografias.com/trabajos5/estat/estat.shtml (7 of 14)25/05/2005 13:50:13
La estática de fluidos - Monografias.com
muchos otros dispositivos hidráulicos de maquinaria industrial.
9. El principio de los vasos comunicantes
Si se tienen dos recipientes comunicados y se vierte un líquido en uno de ellos en éste se distribuirá entre
ambos de tal modo que, independientemente de sus capacidades, el nivel de líquido en uno y otro
recipiente sea el mismo. Éste es el llamado principio de los vasos comunicantes, que es una
consecuencia de la ecuación fundamental de la hidrostática.
Si se toman dos puntos A y B situados en el mismo nivel, sus presiones hidrostáticas han de ser las
mismas, es decir:
luego si pA = pB necesariamente las alturas hA y hB de las respectivas superficies libres han de ser
idénticas hA = hB.
Si se emplean dos líquidos de diferentes densidades y no miscibles, entonces las alturas serán
inversamente proporcionales a las respectivas densidades. En efecto, si pA = pB, se tendrá:
Esta ecuación permite, a partir de la medida de las alturas, la determinación experimental de la densidad
relativa de un líquido respecto de otro y constituye, por tanto, un modo de medir densidades de líquidos
no miscibles si la de uno de ellos es conocida.
10. Aplicación de la ecuación fundamental de la hidrostática
Un submarinista se sumerge en el mar hasta alcanzar una profundidad de 100 m. Determinar la presión a
la que está sometido y calcular en cuántas veces supera a la que experimentaría en el exterior, sabiendo
que la densidad del agua del mar es de 1 025 kg/m3.
De acuerdo con la ecuación fundamental de la hidrostática
Considerando que la presión po en el exterior es de una atmósfera (1 atm = 1,013 · 105 Pa), al sustituir
los datos en la anterior ecuación resulta:
p = 1,013 · 105 + 1025 · 9,8 · 100 = 11,058 · 105 Pa
El número de veces que p es superior a la presión exterior po se obtiene hallando el cociente entre
ambas:
11. Aplicación del principio de pascal
El elevador hidráulico de un garaje funciona mediante una prensa hidráulica conectada a una toma de
agua de la red urbana que llega a la máquina con una presión de 5 · 105 N/m2. Si el radio del émbolo es
de 20 cm y el rendimiento es de un 90 %, determinar cuál es el valor en toneladas de la carga que como
máximo puede levantar el elevador.
http://www.monografias.com/trabajos5/estat/estat.shtml (8 of 14)25/05/2005 13:50:13
La estática de fluidos - Monografias.com
De acuerdo con el principio de Pascal:
p1 = p2
que para una prensa hidráulica se transforma en:
En este caso el dato que correspondería al émbolo pequeño de la prensa se facilita en forma de presión,
de modo que combinando las ecuaciones anteriores se tiene:
Como el rendimiento es del 90 % el valor efectivo de la carga máxima expresado en newtons será
Una tonelada métrica equivale al peso de un cuerpo de 1 000 kg de masa, es decir:
luego:
12. Empuje hidrostático: principio de Arquímedes
Los cuerpos sólidos sumergidos en un líquido experimentan un empuje hacia arriba. Este fenómeno, que
es el fundamento de la flotación de los barcos, era conocido desde la más remota antigüedad, pero fue el
griego Arquímedes (287-212 a. de C.) quien indicó cuál es la magnitud de dicho empuje. De acuerdo con
el principio que lleva su nombre, todo cuerpo sumergido total o parcialmente en un líquido experimenta un
empuje vertical y hacia arriba igual al peso del volumen de líquido desalojado.
Aun cuando para llegar a esta conclusión Arquímedes se apoyó en la medida y experimentación, su
famoso principio puede ser obtenido como una consecuencia de la ecuación fundamental de la
hidrostática. Considérese un cuerpo en forma de paralelepípedo, las longitudes de cuyas aristas valen a,
b y c metros, siendo c la correspondiente a la arista vertical. Dado que las fuerzas laterales se
compensan mutuamente, sólo se considerarán las fuerzas sobre las caras horizontales.
La fuerza F1 sobre la cara superior estará dirigida hacia abajo y de acuerdo con la ecuación fundamental
de la hidrostática su magnitud se podrá escribir como :
siendo S1 la superficie de la cara superior y h1 su altura respecto de la superficie libre del líquido.
La fuerza F2 sobre la cara inferior estará dirigida hacia arriba y, como en el caso anterior, su magnitud
vendrá dada por
La resultante de ambas representará la fuerza de empuje hidrostático E.
pero, dado que S1 = S2 = S y h2 = h1 + c, resulta:
que es precisamente el valor del empuje predicho por Arquímedes en su principio, ya que V = c · S es el
volumen del cuerpo, la densidad del líquido, m = · V la masa del liquido desalojado y finalmente m · g es
http://www.monografias.com/trabajos5/estat/estat.shtml (9 of 14)25/05/2005 13:50:13
Descargar