Nivelacion grado décimo

Anuncio
QUÉ ES LA RESISTENCIA ELÉCTRICA
Texto e ilustraciones José Antonio E. García Álvarez
QUÉ ES LA RESISTENCIA ELÉCTRICA
Resistencia eléctrica es toda oposición que encuentra la corriente a su paso por un circuito
eléctrico cerrado, atenuando o frenando el libre flujo de circulación de las cargas eléctricas o
electrones. Cualquier dispositivo o consumidor conectado a un circuito eléctrico representa en
sí una carga, resistencia u obstáculo para la circulación de la corriente eléctrica.
A.- Electrones fluyendo por un buen conductor eléctrico, que
ofrece baja resistencia. B.- Electrones fluyendo por un mal
conductor. eléctrico, que ofrece alta resistencia a su paso. En
ese caso los electrones chocan unos contra otros al no poder
circular libremente y, como consecuencia, generan calor.
Normalmente los electrones tratan de circular por el circuito eléctrico de una forma más o
menos organizada, de acuerdo con la resistencia que encuentren a su paso. Mientras menor sea
esa resistencia, mayor será el orden existente en el micromundo de los electrones; pero cuando
la resistencia es elevada, comienzan a chocar unos con otros y a liberar energía en forma de
calor. Esa situación hace que siempre se eleve algo la temperatura del conductor y que, además,
adquiera valores más altos en el punto donde los electrones encuentren una mayor resistencia a
su paso.
QUÉ ES EL OHM
El ohm es la unidad de medida de la resistencia que oponen los materiales al paso de la
corriente eléctrica y se representa con el símbolo o letra griega " " (omega). La razón por la
cual se acordó utilizar esa letra griega en lugar de la “O” del alfabeto latino fue para evitar que
se
confundiera
con
el
número
cero
“0”.
El ohm se define como la resistencia que ofrece al paso de la corriente eléctrica una columna de
mercurio (Hg) de 106,3 cm de alto, con una sección transversal de 1 mm 2, a una temperatura de
0o
Celsius.
De acuerdo con la “Ley de Ohm”, un ohm ( 1 ) es el valor que posee una resistencia eléctrica
cuando al conectarse a un circuito eléctrico de un volt ( 1 V ) de tensión provoca un flujo de
corriente de un amper ( 1 A ). La fórmula general de la Ley de Ohm es la siguiente:
La resistencia eléctrica, por su parte, se identifica con el símbolo o letra ( R ) y la fórmula para
despejar su valor, derivada de la fórmula genral de la Ley de Ohm, es la siguiente:.
1.1 Resistencias Eléctricas
Cualquier material natural ofrece oposición al paso de la corriente eléctrica a través de ella. Este efecto se llama
resistividad.
Los materiales conductores presentan una resistividad casi nula, los aislantes no permiten el flujo de corriente y
los resistivos presentan cierta resistencia. Las resistencias son componentes eléctricos pasivos en lo que la
tensión que se les aplica es proporcional a la intensidad que circula por ellos.
Generalmente la resistencia de un material aumenta cuando crece la temperatura. También la resistencia de
conductor es proporcional a la longitud de ésta e inversamente proporcional a su sección.
Hay que puntualizar, para que no haya malos entendidos, que a veces llamarlas resistencias se le denominan
resistores.
La medición en resistencias se hace en ohmios, su símbolo que es este
1.2 Características de la Resistencias
Todas las resistencias tienen una tolerancia, esto es el margen de valores que rodean el valor nominal y en el
que se encuentra el valor real de la resistencia. Su valor viene determinado por un porcentaje que va desde
0.001% hasta 20% el más utilizada es el de 10% . Esta tolerancia viene marcada por un código de colores.
La resistencias tienen un coeficiente de temperatura, este valor dependerá de la temperatura que alcance la
resistencia cuando empiece a circular el flujo de electrones. Como cualquier elemento eléctrico y electrónico
tiene un rango de trabajo y por tanto un límite de funcionamiento que vendrá determinado por su capacidad de
disipar calor, la tensión y por su temperatura máxima; por tanto será la temperatura máxima con la cual podrá
trabajar sin deteriorarse.
Tiene también un coeficiente de tensión que limitará el paso del corriente eléctrica entre sus dos extremos que
será la variación relativa de cambio de tensión al que se someta.
Un factor también importante es el ruido que se debe a los cambios repentinos de aumento y disminución de
corrientes continuos. La capacidad de la resistencia es la capacidad de mantener enel transcurso del tiempo el
valor nominal de la resistencia será sometido a los cambios ambientales, largos periodos del funcionamiento
que no deberá afectarla para nada.
Los materiales empleados para la fabricación de las resistencias son muy variados pero los más comunes son
aleaciones de cobre, níquel y zinc en diversas proporciones de cada uno lo que hará variar la resistividad. Quien
determinará un aumento de esta resistividad será el níquel, ya que si la aleación lleva porcentaje anto de éste, la
resistencia tendrá gran resistividad.
Las aleaciones de cobre níquel y níquel-hierro tiene una resistividad de 10 a 30 veces mayor que el cobre y las
aleaciones de níquel-cromo serán de 60 a 70 veces mayor que las de cobre y con un gran comportamiento en
temperaturas elevadas.
También se puede utilizar el carbono ya que su resistividad entre 400 y 2.400 veces la del cobre, por este
motivo se utiliza en las escobillas de los motores eléctricos.
Codigo de colores para resistencias
Las resistencias de precisión se caracterizan por tener cinco bandas en lugar de las tradicionales cuatro . Las
aplicaciones más tradicionales de estos componentes son los Instrumentos de Medición, Máquinas Herramienta
y Electromedicina, entre otros .
Las bandas se distribuyen de la siguiente manera y los valores asignados a cada banda corresponden según la
siguiente tabla y gráfica:
Tipos de resistencia
Superconductividad
INTRODUCCIÓN
Superconductividad, fenómeno que presentan algunos conductores que no ofrecen resistencia al flujo de
corriente eléctrica. Los superconductores también presentan un acusado diamagnetismo, es decir, son
repelidos por los campos magnéticos. La superconductividad sólo se manifiesta por debajo de una
determinada temperatura crítica Tc y un campo magnético crítico Hc, que dependen del material utilizado.
Antes de 1986, el valor más elevado de Tc que se conocía era de 23,2 K (-249,95 °C), en determinados
compuestos de niobio-germanio. Para alcanzar temperaturas tan bajas se empleaba helio líquido, un
refrigerante caro y poco eficaz. La necesidad de temperaturas tan reducidas limita mucho la eficiencia
global de una máquina con elementos superconductores, por lo que no se consideraba práctico el
funcionamiento a gran escala de estas máquinas. Sin embargo, en 1986, los descubrimientos llevados a
cabo en varias universidades y centros de investigación comenzaron a cambiar radicalmente la situación.
Se descubrió que algunos compuestos cerámicos de óxidos metálicos que contenían lantánidos eran
superconductores a temperaturas suficientemente elevadas como para poder usar nitrógeno líquido como
refrigerante. Como el nitrógeno líquido, cuya temperatura es de 77 K (-196 °C), enfría con una eficacia 20
veces mayor que el helio líquido y un precio 10 veces menor, muchas aplicaciones potenciales empezaron
a parecer económicamente viables. En 1987 se reveló que la fórmula de uno de estos compuestos
superconductores, con una Tc de 94 K (-179 °C), era (Y0,6Ba0,4)2CuO4. Desde entonces se ha demostrado
que los lantánidos no son un componente esencial, ya que en 1988 se descubrió un óxido de cobre y taliobario-calcio con una Tc de 125 K (-148 °C).
HISTORIA
La superconductividad fue descubierta en 1911 por el físico holandés Heike Kamerlingh Onnes, que
observó que el mercurio no presentaba resistencia eléctrica por debajo de 4,2 K (-269 °C). El fenómeno
no se empezó a entender hasta que, en 1933, los alemanes Karl W. Meissner y R. Ochsenfeld detectaron
un acusado diamagnetismo en un superconductor. Sin embargo, los principios físicos de la
superconductividad no se comprendieron hasta 1957, cuando los físicos estadounidenses John Bardeen,
Leon N. Cooper y John R. Schrieffer propusieron una teoría que ahora se conoce como teoría BCS por las
iniciales de sus apellidos, y por la que sus autores recibieron el Premio Nóbel de Física en 1972. La teoría
BCS describe la superconductividad como un fenómeno cuántico, en el que los electrones de conducción
se desplazan en pares, que no muestran resistencia eléctrica. Esta teoría explicaba satisfactoriamente la
superconducción a altas temperaturas en los metales, pero no en los materiales cerámicos. En 1962, el
físico británico Brian Josephson estudió la naturaleza cuántica de la superconductividad y predijo la
existencia de oscilaciones en la corriente eléctrica que fluye a través de dos superconductores separados
por una delgada capa aislante en un campo eléctrico o magnético. Este fenómeno, conocido como efecto
Josephson, fue posteriormente confirmado experimentalmente.
APLICACIONES
Por su ausencia de resistencia, los superconductores se han utilizado para
fabricar electroimanes que generan campos magnéticos intensos sin
pérdidas de energía. Los imanes superconductores se han utilizado en
estudios de materiales y en la construcción de potentes aceleradores de
partículas. Aprovechando los efectos cuánticos de la superconductividad se
han desarrollado dispositivos que miden la corriente eléctrica, la tensión y
el campo magnético con una sensibilidad sin precedentes.
Tren
de
magnética
velocidad.
levitación
de
alta
El descubrimiento de mejores compuestos semiconductores es un paso
significativo hacia una gama mayor de aplicaciones, entre ellas
computadoras más rápidas y con mayor capacidad de memoria, reactores
de fusión nuclear en los que el plasma se mantenga confinado por campos
magnéticos, trenes de levitación magnética de alta velocidad y, tal vez lo
más importante, una generación y transmisión más eficiente de la energía
eléctrica. El Premio Nóbel de Física de 1987 se concedió al físico alemán
J. Georg Bednorz y al físico suizo K. Alex Mueller por su trabajo sobre la
superconductividad a altas temperaturas.
Maglev: cómo funcionan los trenes de levitación magnética
No hay muchas líneas funcionando en la actualidad, pero los trenes de levitación magnética, de aspecto
futurista, están llamados a jugar un papel importante en el transporte urbano.
El término ‘maglev’ procede de abreviar la expresión ‘magnetic levitation’ y designa a un tipo de transporte que
no tiene contacto con ninguna superficie, pues está sustentado en un campo de gravitación magnética, que sirve
también para propulsar el vehículo. Actualmente existen algunos de estos trenes repartidas por el mundo y están
previstos nuevos proyectos. Uno de los más impresionantes será la línea comercial entre las ciudades japonesas
de Tokio y Nagoya, que se espera que circule a 500 kilómetros por hora.
El maglev que recorrerá el trayecto entre Tokio y Nagoya está proyectado para 2027. En esta fecha comenzará
a operar a una velocidad que reducirá la conexión entre las dos ciudades a una hora y siete minutos, cuando hoy
en día se tarda dos horas y media. También está previsto que el tren de levitación magnética se alargue hasta
Osaka, un poco más distante que Nagoya. Ya han tenido lugar pruebas públicas con el vehículo, si bien la
construcción de las infraestructuras es un proceso más largo que la implantación de vías convencionales.
La tecnología de levitación magnética se caracteriza por prescindir del contacto físico entre el tren y la
vía por la que circula. La fricción sólo se produce con el aire, por lo que se minimiza al máximo, una ventaja
que se trata de mejorar dotando a los transportes de la forma más aerodinámica posible. La suspensión en el aire
se alcanza mediante un juego de fuerzas magnéticas, en el que el tren se mueve sobre un raíl de acero gracias a
los electroimanes que tiene adosados en la parte inferior.
El método se denomina suspensión electromagnética y requiere que el tren siempre se encuentre a la misma
distancia del raíl, aproximadamente unos 15 milímetros, para evitar desestabilizar el campo gravitatorio, una
incidencia que previenen los sistemas de control electrónico. Los maglev que circulan a bajas velocidades
pueden utilizar otra tecnología, llamada suspensión electrodinámica, que se basa en las fuerzas de atracción y
repulsión que generan tanto el vehículo como los raíles.
La velocidad y el sigilo de los maglev
Actualmente el récord de velocidad en un tren de levitación magnética es de 581 kilómetros por hora, en una
prueba realizada en Japón durante 2003. La línea de circula comercialmente en Shanghái supera los 400 km/h
en velocidades punta. Estos niveles han hecho que algunos vean a esta tecnología como futura competidora
del transporte aéreo, aunque generalmente se habla de alternativa a los trenes convencionales.
Los maglev pueden viajar a altas velocidades durante más tiempo que un tren convencional, siendo capaces de
acelerar y decelerar más rápido. Y lo hacen de forma silenciosa. Una de las ventajas de este transporte para las
ciudades es el poco ruido que hace, al evitar la fricción con las vías. También son más fáciles de mantener
porque sólo es necesario tener a punto la electrónica, mientras que en un ferrocarril de hoy en día hay que
cuidar la mecánica.
Los raíles de un maglev
Sin embargo, requieren infraestructuras totalmente nuevas. No sirven las de los trenes convencionales y las
instalaciones son caras. El consumo energético, una vez que el vehículo está circulando, también es alto, aunque
la mayor parte de la energía se emplea para vencer la resistencia del aire y no para la suspensión. Esto hace que
no sean aptos para el transporte de mercancías, ya que pesarían demasiado.
Simbología en electrónica
Conductor eléctrico
Son materiales cuya resistencia al paso de la electricidad es muy baja. Los mejores conductores eléctricos son
metales, como el cobre, el oro, el hierro y el aluminio, y sus aleaciones, aunque existen otros materiales no
metálicos que también poseen la propiedad de conducir la electricidad, como el grafito o
las disoluciones y soluciones salinas(por ejemplo, el agua de mar) o cualquier material en estado de plasma.
Para el transporte de energía eléctrica, así como para cualquier instalación de uso doméstico o industrial, el
mejor conductor es el cobre (en forma de cables de uno o varios hilos). Aunque la plata es el mejor conductor,
pero debido a su precio elevado no se usa con tanta frecuencia. También se puede usar el aluminio, metal que si
bien tiene una conductividad eléctrica del orden del 60% de la del cobre, es sin embargo un material tres veces
más ligero, por lo que su empleo está más indicado en líneas aéreas que en la transmisión de energía eléctrica en
las redes de alta tensión.1 A diferencia de lo que mucha gente cree, el oroes levemente peor conductor que el
cobre; sin embargo, se utiliza en bornes de baterías y conectores eléctricos debido a su durabilidad y
“resistencia” a la corrosión.
La conductividad eléctrica del cobre puro fue adoptada por la Comisión Electrotécnica Internacional en 1913
como la referencia estándar para esta magnitud, estableciendo el International Annealed Copper
Standard (Estándar Internacional del Cobre Recocido) o IACS. Según esta definición, la conductividad del
cobre recocido medida a 20 °C es igual a 58.0 MS/m.2 A este valor es a lo que se llama 100% IACS y la
conductividad del resto de los materiales se expresa como un cierto porcentaje de IACS. La mayoría de los
metales tienen valores de conductividad inferiores a 100% IACS pero existen excepciones como la plata o los
cobres especiales de muy alta conductividad designados C-103 y C-110.3
¿Cómo se produce el cobre chileno?
Conoce todo sobre la producción de nuestro principal recurso minero: el cobre. ¿Quién lo extrae? ¿con qué
máquinas? ¿cuáles son los procesos de producción? Entérate acá.
Probablemente sepas que Chile es el máximo productor mundial de cobre, con alrededor del 35% de la
producción planetaria. También habrás oído hablar de la mina de Chuquicamata o te sonará también el nombre
de Codelco. Pero… ¿cuánto sabes realmente de los procesos necesarios para que desde las minas se extraiga el
cobre y podamos finalmente ocuparlo y exportarlo a otros países?
El principal encargado de explorar, extraer, refinar y vender el material, es la Corporación Nacional del cobre
(Codelco). Esta empresa es 100% estatal, es decir, es propiedad de todos los chilenos. Así, podemos decir que
cada uno de nosotros es dueño de una pequeña parte de Codelco. Además, muchas empresas privadas explotan
el material, siendo la más relevante Minera Escondida.
Máximas reservas mundiales de cobre
Chile tiene las mayores reservas de cobre en el mundo (alrededor del 30% del cobre mundial está en nuestro
país, según la "USGS Mineral Resources Program", el programa de reservas mineras de Estados Unidos - ver
recuadro-), las cuales están repartidas en varios lugares del territorio.
Codelco se organiza en divisiones, encargadas de explotar yacimientos, procesar los minerales y obtener
finalmente el metal y sus subproductos para enviarlos a todo el mundo. Codelco tiene actualmente cinco
divisiones: Codelco Norte, División Salvador, División Ventanas, División Andina y División El Teniente.
Camiones y maquinaria pesada
Como te imaginarás, la tarea de producir cobre no es para nada sencilla. Casi 20 mil hombres y
mujeres trabajan día a día en las cinco divisiones de Codelco. Y para ello necesitan de la más alta tecnología.
Quizás una de las imágenes que más rápido se nos vienen a la cabeza al hablar de la minería del cobre son
los camiones, que llegan a ser realmente gigantes, alcanzando a medir 13 metros de largo, 8 de ancho y 8 de
alto. Semejante tamaño hace que puedan cargar alrededor de 300 toneladas cada uno. Para que te hagas una
idea, un elefante africano pesa 6 toneladas, es decir, un camión minero puede cargar el peso de unos 50
paquidermos.
Los camiones mineros no tienen cuatro ruedas, sino seis, y cada neumático mide alrededor de 3,5 metros, es
decir, el doble de un adulto promedio. Estos camiones además consumen alrededor de 3100 litros por día, o sea,
lo que un automóvil corriente gastaría en casi dos años.
En un turno de 8 horas en la mina de Chuquicamata se movilizan 70 camiones desde el fondo hasta la
superficie, recorrido que realizan en casi una hora. Estos camiones transportan diariamente 600.000
toneladas. Algo así como cargar el cerro Santa Lucía una vez y media al día.
Otros elementos de gran tamaño son las palas electromecánicas. Ellas son las encargadas de sacar el
mineral desde la mina. Además, tienen por función dar forma a los yacimientos, tratando de hacer diseños
seguros para evitar derrumbes, aumentando la seguridad y la productividad.
A pesar de su tremendo tamaño y peso, (24 metros de altura y más de mil toneladas, respectivamente) las palas
electromecánicas son operadas por una sola persona. Pueden cargar hasta 100 toneladas, por lo que con
tres “paladas” se puede llenar un camión entero.
Muchas otras máquinas extrañas trabajan en las minas: molinos para moler el cobre, hornos para fundirlo, y
toda una serie de artefactos que ni siquiera te imaginas.
Paso a paso
Tantos años produciendo grandes cantidades de cobre han otorgado una especialización importante. Todo tiene
un sentido lógico y los pasos se tienen que ir desarrollando uno por uno, sin saltarse ninguno, para así, seguir
produciendo día a día toneladas y toneladas del mineral. A continuación te mostramos todos los procesos
productivos que se realizan en una mina de cobre:
Exploración geológica: es la primera etapa, y sin ella, ninguna otra etapa posterior tendría sentido. Aquí,
se identifica que hay un yacimiento con mineral suficiente para ser trabajado, se determinan sus
características y se establece la forma de explotarlo.
Extracción, carguío y transporte: teniendo claro que existe un yacimiento, se decide comenzar a trabajar en
él. Las rocas y los minerales adecuados se extraen de la mina y son transportadas a la planta donde continúan
los demás procesos de producción.
Chancado: Es la etapa en la que grandes máquinas reducen el tamaño del material extraído en la mina a
porciones cada vez más pequeñas y compactas, de no más de 1,5 pulgadas. Dicho material se ordena apilándolo.
Hasta aquí no hay diferencias, sin embargo, de aquí en más, existen diferentes procesos productivos,
dependiendo si el cobre se encontró en la naturaleza combinado con oxígeno (oxidado) o azufre (sulfurado).
Generalmente en los yacimientos, el cobre oxidado se encuentra más superficialmente.
Reservas mundiales de cobre
Lugar
Reservas mundiales de
cobre (en millones de
toneladas)
País
Porcentaje de la
producción mundial
(aprox).
1
Chile
160
30%
2
Perú
63
12%
3
México
38
7%
4
Estados
Unidos
35
6%
5
Indonesia
31
6%
6
China
30
6%
7
Polonia
26
5%
8
Australia
24
5%
9
Rusia
20
4%
10
Zambia
19
3%
Microprocesadores que valen oro: El kilo de chatarra electrónica aumentó 50% en un año
Muchas de las PC que ya no usamos y no sabemos dónde ubicar, valen más de lo que imaginamos. Las
antiguas computadoras contienen en sus componentes (microprocesadores, mainboard, tarjetas PCI) metales
preciosos como oro y plata, y en las demás partes se encuentran otros metales como el cobre y el aluminio, que
podrían ser reciclados industrialmente. De hecho, en Uruguay el precio del kilo de microprocesadores como
chatarra electrónica creció un 50% en el último año, pasando de $ 1.000 a $ 1.500 por kilo, según las
cotizaciones que publica el sitio de Cempre. Pero seguimos sin una ley que regule sobre el tema, a pesar de que
existe un proyecto que ya lleva varios años en el Parlamento.
Sólo el Plan Ceibal genera unas 250 toneladas anuales de desechos electrónicos. Y si tomamos en cuenta que la
penetración de la computadora indica que ya hay al menos una PC (de escritorio o portátil) en el 75% de los
hogares uruguayos. Un estudio publicado por el Programa de las Naciones Unidas para el Medio Ambiente
(PNUMA) (Recycling – from Ewaste to Resources) señala el valor monetario que se pierde por falta de un
reciclaje efectivo de residuos electrónicos. Según este informe, el 15% de la producción mundial de cobalto,
13% de la producción de paladio así como 3% de la extracción de oro y plata son procesados cada año en
computadoras y celulares. En 2008, los componentes de oro, plata, cobre, paladio y cobalto procesados en las
computadoras vendidas tenían un valor de US$ 3.700 millones.
Tampoco es abundante la oferta de lugares para depositar componentes de PC, aunque desde hace un año existe
una interesante aplicación web llamada Dónde Reciclo, que permite encontrar rápidamente los contenedores de
vidrio, plástico, pilas y metales de tu barrio, gracias a una herramienta de geolocalización y al uso de datos
abiertos que ubica tu celular y tu computadora y automáticamente te devuelve un mapa con los puntos de
reciclaje más cercanos. La iniciativa pertenece a la organización Data Uy. Algo es algo.
Hasta ahora hemos considerado los circuitos con un solo receptor, pero lo cierto es que es más común encontrar varios receptores en el
mismo circuito.
Cuando se instalan varios receptores, éstos pueden ser montados de diferentes maneras:



En serie
En paralelo
Mixtos
Circuitos en serie
En un circuito en serie los receptores están instalados uno a continuación de otro en la línea eléctrica, de tal forma que la corriente que
atraviesa el primero de ellos será la misma que la que atraviesa el último. Para instalar un nuevo elemento en serie en un circuito tendremos
que cortar el cable y cada uno de los terminales generados conectarlos al receptor.
Circuito en paralelo
En un circuito en paralelo cada receptor conectado a la fuente de alimentación lo está de forma independiente al resto; cada uno tiene su
propia línea, aunque haya parte de esa línea que sea común a todos. Para conectar un nuevo receptor en paralelo, añadiremos una nueva línea
conectada a los terminales de las líneas que ya hay en el circuito.
Caída de tensión en un receptor
Aparece un concepto nuevo ligado a la tensión. Cuando tenemos más de un receptor conectado
en serie en un circuito, si medimos los voltios en los extremos de cada uno de los receptores
podemos ver que la medida no es la misma si aquellos tienen resistencias diferentes. La medida
de los voltios en los extremos de cada receptor la llamamos caída de tensión.
La corriente en los circuitos serie y paralelo
Una manera muy rápida de distinguir un circuito en seria de otro en paralelo consiste en imaginala circulación de los electrones a través de
uno de los receptores: si para regresen a la pila atravesando el receptor, los electrones tienen que atravesar otro receptor, el circuito está en
serie; si los electrones llegan atravesando sólo el receptor seleccionado, el circuito está en paralelo.
Pulsa sobre los circuitos de abajo para ver el movimiento de los electrones
Características de los circuitos serie y paralelo
Serie
Paralelo
Resistencia
Aumenta al incorporar receptores
Disminuye al incorporar receptores
Caida de tensión
Cada receptor tiene la suya, que aumenta
con su resistencia.
La suma de todas las caídas es igual a la
tensión de la pila.
Es la misma para cada uno de los
receptores, e igual a la de la fuente.
Es la misma en todos los receptores e igual
a la general en el circuito.
Intensidad
Cuantos más receptores, menor será la
corriente que circule.
Cada receptor es atravesado por una
corriente independiente, menor cuanto
mayor resistencia.
La intensidad total es la suma de las
intensidades individuales. Será, pues, mayor
cuanto más receptores tengamos en el
circuito.
Cálculos
Estructura básica del circuito
Los circuitos simples constan de una fuente de alimentación, tal como una batería, y un conductor, como el
cobre o el alambre de plata. Cada extremo del conductor está conectado a uno de los terminales de la batería.
Cuando el circuito está activo, los electrones fluyan libremente a través del circuito.
Resistencia
Para la mayoría de los sistemas eléctricos, es importante controlar el flujo de corriente. Los científicos usan
materiales naturales, llamados resistores, para desacelerar el flujo de la corriente. La cantidad de corriente que
fluye a través del sistema eléctrico depende de la colocación de estos resistores, que es diferente para los dos
circuitos.
Circuitos en serie
En los circuitos en serie, los resistores están conectados juntos en una línea entre los dos extremos de la fuente
de alimentación. La corriente fluye a través de cada resistor, uno tras otro, porque no tiene otros caminos a
seguir. Cada resistor reduce la cantidad de corriente que pasa a través del circuito para que la corriente
mensurable sea mucho menor que en un circuito que tiene un solo resistor.
Circuitos en paralelo
Estos circuitos parecen autopistas de aterrizamiento múltiple, al tener varias vías alineadas paralelas entre sí.
Cada vía tiene su propio resistor. A medida que la corriente fluye a través de este circuito, la corriente se divide,
enviando parte de ésta a través de cada una de las vías. Aunque las resistencias controlan el flujo de corriente a
través de cada vía, el circuito tiene más corriente que un sistema con una sola vía y un solo resistor.
LA HISTORIA DE SONY: LA EMPRESA QUE INVADIÓ AL MUNDO PARA PERDERLO
“Estados Unidos está siendo asaltado y te digo esto: no vamos a tener un Estados Unidos en diez años si las cosas siguen
así. Tenemos que ponerles impuestos y tenemos que proteger nuestra nación. Nadie lo está haciendo”. Eran los finales de
los ochenta y Donald Trump, el exitoso empresario estadounidense, arremetía en televisión pública contra la invasión de
los productos japoneses en su país. El conflicto, a largo plazo, podía a afectar a miles de personas, incluso a los que no
tenían nada que ver con él.
Pronto las empresas japonesas empezaron a comprar empresas estadounidenses, y el mundo de la tecnología comenzó a
girar en torno a lo que saliera del Lejano Oriente. Había una empresa en especial que ―casi como pasa con Apple hoy―
estaba en la mira de todos: Sony.
Pasando las páginas de la historia, nos encontramos con que, hoy, la empresa pionera de los ochentas y noventas ya no es
ni la mitad de lo que era. Sus dispositivos (a excepción del PlayStation) ni siquiera le generan suficientes ingresos; y la
explicación no es que al mercado japonés le ganaron la guerra. En abril de 2012. Sony Corp marcó un nuevo récord de 6,4
mil millones de dólares en pérdidas (más o menos 11,4 billones de pesos colombianos).
Sony, si me permiten la analogía, se está haciendo un tradicional harakiri lento y doloroso, que le ha durado desde finales
de los noventas hasta hoy, que cumple 77 años. Ya tiene la espada bien adentro.
Parte I: El Trinitron y las malas decisiones
trinitron
Casi todas las personas han tenido un televisor Trinitron de Sony en casa: el equipo pesadísimo en el que muchos
colombianos vieron el 5–0 de Colombia contra Argentina en 1993. Aunque la televisión fue inventada mucho antes de la
llegada del Trinitron en los sesentas, la ‘caja mágica’ de Sony fue la primera que se distribuyó con éxito en el mercado
internacional.
En la época en la que fue lanzado, el Trinitron tenía la mejor calidad de imagen en el mercado. La marca, desde su
nacimiento, iba un paso más adelante de toda su competencia, porque además vendía a precios muy asequibles. Trinitron
era sinónimo de estabilidad económica, tanto para quien la compraba como para la empresa que la estaba ofreciendo.
Esto fue posible porque el cofundador de Sony, Masaru Ibuka, fue (según quienes lo conocieron) uno de los ingenieros
más brillantes que ha pisado la Tierra.
La filosofía de Ibuka era: “El primer y más importante motivo por el que fundamos esta compañía era crear un medio
ambiente de trabajo estable, donde ingenieros que tengan una apreciación profunda por la tecnología puedan realizar su
trabajo y misión de acuerdo con los dictados de su corazón”.
La empresa nunca fue famosa por ser pionera con las ideas. Todas las mejores tecnologías de Sony fueron mejoras que el
equipo de Ibuka desarrolló para otros productos que ya existían.
A la izquierda Morita y a la derecha Ibuka.
A la izquierda Morita y a la derecha Ibuka.
El otro cofundador de la empresa, Akio Morita, era un empresario salvaje y carismático que fue ’el rostro’ de la empresa.
Al mismo tiempo, era a quien constantemente se le ocurrían ideas sobre cómo mejorar lo que ya existía. De la misma
manera que Microsoft tuvo a Bill Gates y Apple a Steve Jobs, Sony mucho tiempo se sostuvo sobre los hombros del
polémico Morita, que muchas veces se manifestó contra la manera en la que funciona el mercado estadounidense.
Trinitron vivió una larga vida, hasta que ocurrió lo que se esperaba que ocurriera con la llegada de las tecnologías Plasma
y LCD. Las pantallas planas reemplazaron los armatostes enormes que Sony dejó de fabricar en 2006 y de distribuir en
2008. Por su parte, llegó tarde a las nuevas tecnologías de televisión y con productos muy caros.
Sony no comprendió hacia dónde se estaba dirigiendo la tecnología en la última década. Desde 2000, con la llegada de
BlackBerry, las empresas empezaron a sacar productos que integraban muchas funcionalidades en un solo dispositivo.
La empresa fue intransigente. Sacó televisores con capacidades limitadas que no ofrecían muchas opciones adicionales a
los usuarios. Mientras tanto la competencia (como Samsung y LG) comprendió que los televisores, como todos los
productos de hoy, deben ofrecer más servicios que solo buena calidad de imagen.
En lugar de entregar un solo producto con miles de funcionalidades, Sony saturó el mercado con miles de productos con
una funcionalidad cada uno. Las empresas que ofrecen demasiada variedad de productos generan mucha desconfianza en
los clientes, según tres estudios citados por Gizmodo. Los usuarios reconocen las marcas porque estas son fáciles de
recordar e identificar con una serie de productos que conservan una identidad (Microsoft con Windows, Apple con su ‘i’ –
iPad, iPhone–, etc.).
Al perder su producto más importante, Sony perdió su rostro. No supo cómo reconstruir la imagen de la empresa, que se
encontraba esparcida en una lista interminable de cámaras, celulares, computadores, consolas y televisores que nunca
trascendieron. Además, muchos de ellos fueron intentos desatinados, que hoy solo se recuerdan en listas como la de los 50
dispositivos más inútiles de la década pasada (según Gizmodo). Más de la mitad de estos gadgets fueron de la empresa
japonesa.
Parte II: El Walkman, Discman y Apple
Walkman
La historia de la música portátil empezó con el sueño de poder cargar un radio de transistores para todas partes. El equipo
era ya casi portátil porque funcionaba con pilas, pero era demasiado grande para ser cargado con facilidad. Morita
comprendió bien esto, y para solucionarlo aplicó una solución muy ingeniosa: ordenó fabricar camisas con bolsillos más
grandes para que los vendedores pudieran cargar el radio con facilidad y hacerlo parecer portátil.
Puede que Sony no se haya inventado el radio de transistores, pero si se inventó la portabilidad. El radio ‘portátil’ de Sony
empezó a traer buenos resultados. Morita sabía que si quería seguir innovando y haciendo productos que la gente
comprara, el camino era la portabilidad.
Con la llegada del casete, la empresa empezó a fabricar dispositivos que los reproducían. Eran grabadoras grandes, que se
podían cargar de un lado para otro de la misma manera que el radio. Cuenta la revista Times, en un texto sobre historia del
Walkman, que Morita cargaba un reproductor de casetes de Sony en sus viajes de negocios, y un día se bajó del avión con
la idea de hacer de la música portátil una experiencia privada.
Ibuka se quedó con la idea en la cabeza, se la llevó a su equipo de ingenieros y así nació la primera idea original de Sony:
El 1 de julio de 1979, la empresa le mostró al mundo el Walkman.
Como las mejores invenciones de la modernidad, el producto era una gran mezcla de muchas otras ideas: el casete, los
audífonos y la portabilidad. Era un dispositivo azul, con botones grandes.
Sony predijo que apenas 5.000 de ellos se iban a a vender en Japón después del lanzamiento, pero ese número se
multiplicó por 10. Era la primera vez en la historia en la que todo el mundo podía ir por la calle escuchando lo que
quisiera, sin interrumpir y molestar a nadie.
Muchas empresas (como Aiwa y Philips) empezaron a imitar el producto, pero Sony volvió a mandar la parada. La
empresa fue agregándole funciones a su dispositivo: radio, el botón que mejoraba los bajos (el Bass Boost) o un
rebobinador para el cassette. Incluso llegaron a sacar un Walkman que se cargaba con el sol.
Los ochentas fueron los años del Walkman. El dispositivo invadió todos los mercados del mundo, incluyendo el
estadounidense. Sony estaba creciendo tanto y tan rápido que empezó a comprar empresas norteamericanas, lo que
despertó la ira santa de Donald Trump en televisión.
Sony se hizo con Columbia Pictures, una importante productora de cine de Hollywood, y para Estados Unidos eso era
imperdonable: significaba, según ellos, que Japón ahora iba a tener el dominio sobre la cultura norteamericana.
El escándalo tocó la fibra de Estados Unidos y dejó de ser un tema solo de negocios. Algunos medios dicen que los
japoneses estaban jugando sucio en ese entonces: mientras sus empresas estaban invadiendo a todo el mundo, no dejaban
que productos extranjeros se vendieran en su país sin un impuesto gigante.
Otros afirman que más allá de que eso sea cierto o no, el crecimiento de la industria japonesa no se explica así. Aunque
los productos extranjeros no se vendieran en Japón, este era solo un país. Empresas como Sony vendían en todo el mundo,
no solo en Estados Unidos.
Algunos discursos ya rayaban con lo absurdo: decían que los nipones estaban vengándose por lo sucedido en la Segunda
Guerra Mundial. Las compras japonesas de empresas gringas, según este argumento, eran parte de una invasión. En este
video podemos ver un poco de la controversia
En realidad se desconocen las razones por las que Sony compró Columbia. Es decir: en términos de negocio tuvo mucho
sentido, porque Sony estaba entrando en el negocio de la música y eso se complementaría muy bien con el cine. Pero si lo
hubiera hecho solo con fines lucrativos, lo mejor no hubiera sido comprar una empresa tan cara como Columbia Pictures.
Hay rumores que dicen que la compra vino de una excentricidad de Morita. Dicen que el empresario simplemente quería
tener una gran productora de cine. El caso es que esa decisión, al final, costó mucho más que los 3.400 millones de
dólares que pagó Sony por Columbia.
Sony compró tantas empresas tan rápido que no hubo una manera de integrarlas. Había partes de la empresa que
trabajaban juntas en el desarrollo de productos, pero que ni siquiera se conocían entre ellas. A Sony le costó mucho
trabajo conservar la unidad de su multinacional, sencillamente porque todo estaba regado por todas partes.
Luego llegaron los noventas, y los discos compactos rápidamente empezaron a reemplazar los vinilos. Eran más baratos,
más fáciles de producir y los reproductores, con el tiempo, se hicieron mucho más económicos. Sony y Phillips unieron
fuerzas para desarrollar el primer Discman.
Casi de la misma manera y con el mismo éxito que el Walkman, esta tecnología reinó en los noventas. Todos tenían o un
Discman o un Walkman en sus manos. La venta de discos se disparó sin precedentes, cosa que Sony celebraba al ser
dueño de una de las productoras de música más importantes.
Pero con el cambio de siglo llegó Apple. Los reproductores de MP3 ya estaban pidiendo pista de aterrizaje, pues ofrecían
más beneficios a los usuarios por precios más bajos. El 23 de octubre de 2001, Steve Jobs le mostró al mundo el iPod, y
de nuevo la industria de la música cambió para siempre.
El iPod no solo reemplazó los Walkman y Discman, sino que obligó a los usuarios a cambiar de mentalidad. Los discos
físicos dejaron de ser tan importantes, pues miles de archivos MP3 (que además se podían descargar por Napster) cabían
en dispositivos del tamaño de la palma de la mano.
Era demasiado para pelear. Sony estaba perdiendo plata por todos los flancos por culpa de Apple; y como ya sabemos, no
lo manejó de la mejor manera. Ninguna empresa lo hizo en ese momento (recordemos el Zune de Microsoft y los
teléfonos de BlackBerry). La respuesta de Sony fue impulsar productos que, más allá de su creatividad y usabilidad (como
el Mini Disc), probaron que no eran los adecuados para pelear contra el iPod: costaban más y eran menos eficientes.
Parte III: La Arrogancia de PlayStation
El último dispositivo con el Sony conquistó al mundo fue el PlayStation. Desde 1988 la empresa ya estaba tentada con la
idea de entrar en el mundo de los videojuegos, y para hacerlo buscó una alianza con quien entonces era el rey solitario de
ese mundo: Nintendo.
La idea era sacar una consola que reprodujera unos discos especiales desarrollados por Sony que permitían correr juegos
con gráficas 3D en tiempo real. Sony alcanzó a fabricar 200 prototipos de estas consolas, que no solo reproducirían discos
sino también cartuchos. Al final, el proyecto se cayó por unos problemas de licencias.
Sony reformo sus planes y decidió sacar su propia consola, que funcionaría solo con CD. En 1994 la consola fue lanzada,
y en seis meses en el mercado ya había alcanzado 1 millón de ventas en todo el mundo.
¿Qué hizo a PlayStation una de las consolas más importantes de la historia? Una selección de títulos exclusivos que
combinaban tecnologías que no habían sido implementadas hasta la fecha, controles con un sistema de vibraciones que
ayudaban a hacer la experiencia más envolvente y, por encima de todo, una de las mejores campañas publicitarias que se
han visto.
Con el slogan ‘ur not ready’ (ustedes no están listos) y una presentación sin precedentes en el E3, Sony Computer
Entertainment hizo de su consola un éxito absoluto. Sony fue la primera empresa que les dio mucha importancia a los
títulos exclusivos de las empresas, lo que hizo que los usuarios empezaran a generar un fanatismo visceral con una
empresa o la otra por los títulos que ofrecía.
Lo siguiente fue el PlayStation 2. Una consola diseñada por Sony y Toshiba que leía DVDs y era capaz de llevar las
experiencias al siguiente nivel. Sony seguía con la exclusividad en los títulos más importantes del mercado y sin una
verdadera competencia, lo que le permitía seguir en la punta de la carrera por la mejor industria. Los gamers eran fieles a
Sony por los títulos exclusivos que ofrecía.
El PlayStation 2 fue la consola más vendida en su momento con 153,68 millones de equipos vendidos en total según
VGChartz y un total de 1.638,25 millones de juegos vendidos. Los juegos exclusivos de Sony fueron, uno tras otro, juegos
del año según los medios especializados. La empresa estaba en un trono solitario, lo más arriba posible, pero ese éxito
terminó convirtiéndose en la última puñalada del harakiri que hace tiempo ya se había hecho Sony.
La frase que podría resumir la manera en la que Sony lidio con su éxito fue la que dijo el actual director creativo de Sony
Computer Entertainment cuando se preparaban para el lanzamiento el PlayStation 3: “La siguiente generación de consolas
empezará cuando nosotros lo digamos”. La Arrogancia con A mayúscula de Sony era tan notoria que incluso incomodaba
en un mundo como el empresarial, en el que reina la arrogancia.
PlayStation creía que tenía su trono en el paraíso tan asegurado que creía que podía sacar su tercera consola en un precio
astronómico con juegos carísimos, y que todos la iban a comprar. Resulta que no. Microsoft aprovechó el ‘papayazo’ de
Sony para que el Xbox 360 se hiciera con un lugar en la competencia. PlayStation perdió la exclusividad de muchos
juegos, porque cada vez hacer juegos es una apuesta más riesgosa. Hoy, en vísperas del lanzamiento de la cuarta consola,
el panorama ya no está tan claro.
Muchas empresas están entrando pisar en el medio de los videojuegos. Valve demostró con Steam que los gamers están
dispuestos a pagar por juegos sin necesidad de usar una consola, Microsoft parece querer hacer mucho más que una
consola con su nuevo Xbox. Muchos grandes empresarios están de acuerdo que la verdadera competencia de las empresas
de videojuegos ya no es ni Sony ni Microsoft, ni Valve. Es Apple.
Epílogo
La manzana, gústenos o no, fue verdugo de las compañías que estaban conquistando el mundo de la tecnología; pero
también hay que decir que ninguna en su momento se supo poner ‘las pilas’. El mercado avanza junto a la tecnología,
cambia según la tecnología que se imponga. El que no se adapta rápidamente muere. Es así de fácil.
Sony está en medio de un plan de revivir su compañía, llamado One Sony. Los principales objetivos de esta iniciativa son
dirigir el crecimiento de sus principales negocios electrónicos, dar un nuevo rumbo a la categoría de los televisores y
acelerar la innovación que les permita crear nuevos dominios del negocio.
El harakiri que la empresa se hizo no ha acabado. Todavía no se ve la punta de la espada saliendo al otro lado. Sony sigue
dando ‘patadas de ahogado’ para salvarse en un mercado que hoy está más competido que nunca. En este momento la
empresa ni siquiera está ganando plata de por sus productos electrónicos: su mayor negocio hoy es vender seguros de
vida.
Leer los artículos y realizar resumen en hojas de examen.
Descargar