Componentes de una CPU y circuitos eléctricos

Anuncio
INTRODUCCIÓN
Un circuito eléctrico es una serie de elementos o componentes eléctricos, tales
como resistencias, inductancias, condensadores y fuentes, o electrónicos,
conectados eléctricamente entre sí con el propósito de generar, transportar o
modificar señales eléctricas.
En este reporte se dan a conocer aspectos fundamentales sobre el funcionamiento
de un circuito, así como también conocimientos elementales referentes a la
continuidad eléctrica y el voltaje.
El manejo de la breadboard es necesario en el desarrollo de esta práctica, pues se
utiliza en cada una de las pruebas y procesos realizados.
Esta práctica es de gran utilidad porque además de comprender el funcionamiento
de un circuito eléctrico, también se pone en práctica el uso y manipulación de
dispositivos eléctricos básicos tales como el multímetro, la fuente, la breadboard,
etc.
El desarrollo sistemático y paso a paso que se le da a la guía de trabajo de la
práctica, hace que cada concepto se pueda entender, con la ayuda de las tablas,
esquemas y gráficos presentados en el desarrollo del trabajo.
Ningún estudiante de electricidad puede pasar por alto estos conocimientos
fundamentales que son la base para el desarrollo de proyectos complejos.
Flujos
compresibles
El interés por los flujos compresibles comenzó con el desarrollo de las turbinas de
vapor por el inventor británico Charles Algernon Parsons y el ingeniero sueco Carl
Gustaf Patrik de Laval durante la década de 1880. En esos mecanismos se
descubrió por primera vez el flujo rápido de vapor a través de tubos, y la
necesidad de un diseño eficiente de turbinas llevó a una mejora del análisis de los
flujos compresibles. Pero los avances modernos tuvieron que esperar al estímulo
que supuso el desarrollo de la turbina de combustión y la propulsión a chorro en la
década de 1930. El interés por los flujos de alta velocidad sobre superficies surgió
de forma temprana en los estudios de balística, donde se necesitaba comprender
el movimiento de los proyectiles. Los avances más importantes comenzaron hacia
el final del siglo XIX, con Prandtl y sus discípulos, entre otros, y crecieron con la
introducción de los aviones de alta velocidad y los cohetes en la II Guerra Mundial.
Uno de los principios básicos del flujo compresible es que la densidad de un gas
cambia cuando el gas se ve sometido a grandes cambios de velocidad y presión.
Al mismo tiempo, su temperatura también cambia, lo que lleva a problemas de
análisis más complejos. El comportamiento de flujo de un gas compresible
depende de si la velocidad de flujo es mayor o menor que la velocidad del sonido.
El sonido es la propagación de una pequeña perturbación, u onda de presión,
dentro de un fluido. Para un gas, la velocidad del sonido es proporcional a la raíz
cuadrada de su temperatura absoluta. La velocidad del sonido en el aire a 20 °C
(293 kelvins en la escala absoluta), es de unos 344 metros por segundo. Si la
velocidad de flujo es menor que la velocidad del sonido (flujo subsónico), las
ondas de presión pueden transmitirse a través de todo el fluido y así adaptar el
flujo que se dirige hacia un objeto. Por tanto, el flujo subsónico que se dirige hacia
el ala de un avión se ajustará con cierta distancia de antelación para fluir
suavemente sobre la superficie. En el flujo supersónico, las ondas de presión no
pueden viajar corriente arriba para adaptar el flujo. Por ello, el aire que se dirige
hacia el ala de un avión en vuelo supersónico no está preparado para la
perturbación que va a causar el ala y tiene que cambiar de dirección
repentinamente en la proximidad del ala, lo que conlleva una compresión intensa u
onda de choque. El ruido asociado con el paso de esta onda de choque sobre los
observadores situados en tierra constituye el estampido sónico de los aviones
supersónicos. Frecuentemente se identifican los flujos supersónicos por su
número de Mach, que es el cociente entre la velocidad de flujo y la velocidad del
sonido. Por tanto, los flujos supersónicos tienen un número de Mach superior a 1.
Circuito eléctrico
Un circuito eléctrico tiene tres partes importantes: la fuente de energía, los
conductores y la carga (esta última es la que aprovecha la energía proporcionada
por la fuente de energía).
Existen tres formas típicas de re[resemtar un circuito: el diagrama de bloques
(Figura 1), el diagrama esquemático (figura 2) y el diagrama pictórico (figura 3), tal
como se muestra a continuación:
DIAGRAMA DE BLOQUES
DIAGRAMA ESQUEMÁTICO
DIAGRAMA PICTÓRICO
Circuito eléctrico, trayecto o ruta de una corriente eléctrica. El término se utiliza
principalmente para definir un trayecto continuo compuesto por conductores y
dispositivos conductores, que incluye una fuente de fuerza electromotriz que
transporta la corriente por el circuito. Un circuito de este tipo se denomina circuito
cerrado, y aquéllos en los que el trayecto no es continuo se denominan abiertos.
Un cortocircuito es un circuito en el que se efectúa una conexión directa, sin
resistencia, inductancia ni capacitancia apreciables, entre los terminales de la
fuente de fuerza electromotriz.
Componentes de un circuito eléctrico

Corriente continua y alterna: La corriente eléctrica muestra dos tipos de
comportamiento diferenciado en cuanto al sentido en que recorre el circuito.
De este modo, en general se distingue entre corriente continua y alterna. La
primera es la que recorre el circuito siempre en idéntico sentido. La
segunda es la que cambia el sentido de recorrido del circuito varias veces
por segundo y presenta una intensidad determinada independientemente
del sentido del recorrido del circuito.

Conductores: los metales son buenos conductores eléctricos porque
disponen de muchos estados cuánticos vacíos que los electrones pueden
ocupar.

Resistencia: Cuando una corriente eléctrica pasa por un conductor hay una
fuerza que actúa para reducir o resistir el flujo. Es lo que se llama
resistencia, y depende de la naturaleza y del tamaño del conductor. La
unidad de resistencia es el ohmio.

La pila eléctrica: las fuentes de voltaje de corriente continua reciben el
nombre de pilas o baterías. Su funcionamiento se basa en la transformación
de energía química en energía eléctrica mediante la inversión del proceso
de la electrolisis. De un modo más preciso el concepto de batería se aplica
a conjuntos de pilas iguales.
Las pilas consumen poco a poco el combustible químico generando
electricidad.
La pila seca es la empleada comúnmente en radios, linternas, etc.
Una sola pila normalmente produce poco voltaje pero varias conectadas en
serie (positivo a negativo)darán un voltaje más alto. Una serie de pilas
conectadas de esta manera forman una batería. Algunas baterías se
conocen con el nombre de acumuladores, se han concebido de manera que
se pueden “recargar” cuando una corriente eléctrica vuelve a pasar por
ellas.

Transformadores:
2.LEYDEOHM
La corriente fluye por un circuito eléctrico siguiendo varias leyes definidas. La ley
básica del flujo de la corriente es la ley de Ohm, así llamada en honor a su
descubridor, el físico alemán Georg Ohm. Según la ley de Ohm, la cantidad de
corriente que fluye por un circuito formado por resistencias puras es directamente
proporcional a la fuerza electromotriz aplicada al circuito, e inversamente
proporcional a la resistencia total del circuito. Esta ley suele expresarse mediante
la fórmula I = V/R, siendo I la intensidad de corriente en amperios, V la fuerza
electromotriz en voltios y R la resistencia en ohmios. La ley de Ohm se aplica a
todos los circuitos eléctricos, tanto a los de corriente continua (CC) como a los de
corriente alterna (CA), aunque para el análisis de circuitos complejos y circuitos de
CA deben emplearse principios adicionales que incluyen inductancias y
capacitancias.
Un circuito en serie es aquél en que los dispositivos o elementos del circuito están
dispuestos de tal manera que la totalidad de la corriente pasa a través de cada
elemento sin división ni derivación en circuitos paralelos.
Cuando en un circuito hay dos o más resistencias en serie, la resistencia total se
calcula sumando los valores de dichas resistencias. Si las resistencias están en
paralelo, el valor total de la resistencia del circuito se obtiene mediante la fórmula
En un circuito en paralelo los dispositivos eléctricos, por ejemplo las lámparas
incandescentes o las celdas de una batería, están dispuestos de manera que
todos los polos, electrodos y terminales positivos (+) se unen en un único
conductor, y todos los negativos (-) en otro, de forma que cada unidad se
encuentra, en realidad, en una derivación paralela. El valor de dos resistencias
iguales en paralelo es igual a la mitad del valor de las resistencias componentes y,
en cada caso, el valor de las resistencias en paralelo es menor que el valor de la
más pequeña de cada una de las resistencias implicadas. En los circuitos de CA, o
circuitos de corrientes variables, deben considerarse otros componentes del
circuito además de la resistencia.
3.LEYESDEKIRCHHOFF
Si un circuito tiene un número de derivaciones interconectadas, es necesario
aplicar otras dos leyes para obtener el flujo de corriente que recorre las distintas
derivaciones. Estas leyes, descubiertas por el físico alemán Gustav Robert
Kirchhoff, son conocidas como las leyes de Kirchhoff. La primera, la ley de los
nudos, enuncia que en cualquier unión en un circuito a través del cual fluye una
corriente constante, la suma de las intensidades que llegan a un nudo es igual a la
suma de las intensidades que salen del mismo. La segunda ley, la ley de las
mallas afirma que, comenzando por cualquier punto de una red y siguiendo
cualquier trayecto cerrado de vuelta al punto inicial, la suma neta de las fuerzas
electromotrices halladas será igual a la suma neta de los productos de las
resistencias halladas y de las intensidades que fluyen a través de ellas. Esta
segunda ley es sencillamente una ampliación de la ley de Ohm.
4.IMPEDANCIA
La aplicación de la ley de Ohm a los circuitos en los que existe una corriente
alterna se complica por el hecho de que siempre estarán presentes la capacitancia
y la inductancia. La inductancia hace que el valor máximo de una corriente alterna
sea menor que el valor máximo de la tensión; la capacitancia hace que el valor
máximo de la tensión sea menor que el valor máximo de la corriente. La
capacitancia y la inductancia inhiben el flujo de corriente alterna y deben tomarse
en cuenta al calcularlo. La intensidad de corriente en los circuitos de CA puede
determinarse gráficamente mediante vectores o con la ecuación algebraica
en la que L es la inductancia, C la capacitancia y f la frecuencia de la corriente. El
valor obtenido en el denominador de la fracción se denomina impedancia del
circuito y suele representarse por la letra Z. Por consiguiente, la ley de Ohm para
los circuitos integrados suele expresarse por la ecuación sencilla I = ð / Z.
Circuito impreso, circuito eléctrico fabricado depositando material conductor sobre
la superficie de una base aislante denominada placa de circuito impreso (PCB). En
este tipo de circuitos, el cableado usado en circuitos tradicionales se sustituye por
una red de finas líneas conductoras, impresas y unidas sobre el PCB. Pueden
introducirse dentro del circuito otros elementos, como transistores, resistencias,
condensadores e inductores, mediante la impresión o el montaje de estos sobre la
placa, para modificar el flujo de corriente. Véase Electricidad; Electrónica; Aislante;
Microprocesador.
Los circuitos impresos fueron desarrollados durante la II Guerra Mundial, para su
uso en detectores de proximidad para proyectiles de artillería. Desde entonces los
circuitos impresos se han utilizado en aparatos de comunicaciones, como
receptores de televisión y radio, radares, audífonos, computadoras e instrumentos
de misiles dirigidos y aeronaves.
Circuito integrado, pequeño circuito electrónico utilizado para realizar una función
electrónica específica, como la amplificación. Se combina por lo general con otros
componentes para formar un sistema más complejo y se fabrica mediante la
difusión de impurezas en silicio monocristalino, que sirve como material
semiconductor, o mediante la soldadura del silicio con un haz de flujo de
electrones. Varios cientos de circuitos integrados idénticos se fabrican a la vez
sobre una oblea de pocos centímetros de diámetro. Esta oblea a continuación se
corta en circuitos integrados individuales denominados chips. En la integración a
gran escala (LSI, acrónimo de Large-Scale Integration) se combinan
aproximadamente 5.000 elementos, como resistencias y transistores, en un
cuadrado de silicio que mide aproximadamente 1,3 cm de lado. Cientos de estos
circuitos integrados pueden colocarse en una oblea de silicio de 8 a 15 cm de
diámetro. La integración a mayor escala puede producir un chip de silicio con
millones de elementos. Los elementos individuales de un chip se interconectan
con películas finas de metal o de material semiconductor aisladas del resto del
circuito por capas dieléctricas. Para interconectarlos con otros circuitos o
componentes, los chips se montan en cápsulas que contienen conductores
eléctricos externos. De esta forma se facilita su inserción en placas. Durante los
últimos años la capacidad funcional de los circuitos integrados ha ido en aumento
de forma constante, y el coste de las funciones que realizan ha disminuido
igualmente. Esto ha producido cambios revolucionarios en la fabricación de
equipamientos electrónicos, que han ganado enormemente en capacidad
funcional y en fiabilidad. También se ha conseguido reducir el tamaño de los
equipos y disminuir su complejidad física y su consumo de energía. La tecnología
de los ordenadores o computadoras se ha beneficiado especialmente de todo ello.
Las funciones lógicas y aritméticas de una computadora pequeña pueden
realizarse en la actualidad mediante un único chip con integración a escala muy
grande (VLSI, acrónimo de Very Large Scale Integration) llamado
microprocesador, y todas las funciones lógicas, aritméticas y de memoria de una
computadora, pueden almacenarse en una única placa de circuito impreso, o
incluso en un único chip. Un dispositivo así se denomina microordenador o
microcomputadora.
En electrónica de consumo, los circuitos integrados han hecho posible el
desarrollo de muchos nuevos productos, como computadoras y calculadoras
personales, relojes digitales y videojuegos. Se han utilizado también para mejorar
y rebajar el coste de muchos productos existentes, como los televisores, los
receptores de radio y los equipos de alta fidelidad. Su uso está muy extendido en
la industria, la medicina, el control de tráfico (tanto aéreo como terrestre), control
medioambiental y comunicaciones.
Placa de circuito impreso
Placa de circuito impreso, en informática, placa lisa de material aislante, por
ejemplo plástico o fibra de vidrio, sobre la que se montan chips y otros
componentes electrónicos, generalmente en orificios previamente taladrados para
ello. Los componentes de una placa de circuito impreso, y más concretamente los
orificios para ellos, están conectados eléctricamente mediante pistas de metal
conductor definidas con anterioridad e impresas sobre la superficie de la placa.
Las puntas metálicas que sobresalen de los componentes electrónicos se sueldan
a las pistas metálicas conductoras formando las conexiones. Las placas de circuito
impreso deben tomarse por los bordes y protegerse de la suciedad y la
electricidad estática para evitar que se dañen. Véase Circuito integrado.
Electrónica
Electrónica, campo de la ingeniería y de la física aplicada relativo al diseño y
aplicación de dispositivos, por lo general circuitos electrónicos, cuyo
funcionamiento depende del flujo de electrones para la generación, transmisión,
recepción y almacenamiento de información. Esta información puede consistir en
voz o música (señales de voz) en un receptor de radio, en una imagen en una
pantalla de televisión, o en números u otros datos en un ordenador o
computadora.
Los circuitos electrónicos ofrecen diferentes funciones para procesar esta
información, incluyendo la amplificación de señales débiles hasta un nivel
utilizable; la generación de ondas de radio; la extracción de información, como por
ejemplo la recuperación de la señal de sonido de una onda de radio
(demodulación); el control, como en el caso de la superposición de una señal de
sonido a ondas de radio (modulación), y operaciones lógicas, como los procesos
electrónicos que tienen lugar en las computadoras.
2.ANTECEDENTES
HISTÓRICOS
La introducción de los tubos de vacío a comienzos del siglo XX propició el rápido
crecimiento de la electrónica moderna. Con estos dispositivos se hizo posible la
manipulación de señales, algo que no podía realizarse en los antiguos circuitos
telegráficos y telefónicos, ni con los primeros transmisores que utilizaban chispas
de alta tensión para generar ondas de radio. Por ejemplo, con los tubos de vacío
se pudieron amplificar las señales de radio y de sonido débiles, y además podían
superponerse señales de sonido a las ondas de radio. El desarrollo de una amplia
variedad de tubos, diseñados para funciones especializadas, posibilitó el rápido
avance de la tecnología de comunicación radial antes de la II Guerra Mundial, y el
desarrollo de las primeras computadoras, durante la guerra y poco después de
ella.
Hoy día, el transistor, inventado en 1948, ha reemplazado casi completamente al
tubo de vacío en la mayoría de sus aplicaciones. Al incorporar un conjunto de
materiales semiconductores y contactos eléctricos, el transistor permite las
mismas funciones que el tubo de vacío, pero con un coste, peso y potencia más
bajos, y una mayor fiabilidad. Los progresos subsiguientes en la tecnología de
semiconductores, atribuible en parte a la intensidad de las investigaciones
asociadas con la iniciativa de exploración del espacio, llevó al desarrollo, en la
década de 1970, del circuito integrado. Estos dispositivos pueden contener
centenares de miles de transistores en un pequeño trozo de material, permitiendo
la construcción de circuitos electrónicos complejos, como los de los
microordenadores o microcomputadoras, equipos de sonido y vídeo, y satélites de
comunicaciones.
3.COMPONENTES
ELECTRÓNICOS
Los circuitos electrónicos constan de componentes electrónicos interconectados.
Estos componentes se clasifican en dos categorías: activos o pasivos. Entre los
pasivos se incluyen los reóstatos, los condensadores y los inductores. Los
considerados activos incluyen las baterías (o pilas), los generadores, los tubos de
vacío y los transistores.
3.1.Tubos
de
vacío
Un tubo de vacío consiste en una cápsula de vidrio de la que se ha extraído el
aire, y que lleva en su interior varios electrodos metálicos. Un tubo sencillo de dos
elementos (diodo) está formado por un cátodo y un ánodo, este último conectado
al terminal positivo de una fuente de alimentación. El cátodo (un pequeño tubo
metálico que se calienta mediante un filamento) libera electrones que migran hacia
él (un cilindro metálico en torno al cátodo, también llamado placa). Si se aplica una
tensión alterna al ánodo, los electrones sólo fluirán hacia el ánodo durante el
semiciclo positivo; durante el ciclo negativo de la tensión alterna, el ánodo repele
los electrones, impidiendo que cualquier corriente pase a través del tubo. Los
diodos conectados de tal manera que sólo permiten los semiciclos positivos de
una corriente alterna (c.a.) se denominan tubos rectificadores y se emplean en la
conversión de corriente alterna a corriente continua (c.c.) (véase Electricidad). Al
insertar una rejilla, formada por un hilo metálico en espiral, entre el cátodo y el
ánodo, y aplicando una tensión negativa a dicha rejilla, es posible controlar el flujo
de electrones. Si la rejilla es negativa, los repele y sólo una pequeña fracción de
los electrones emitidos por el cátodo puede llegar al ánodo. Este tipo de tubo,
denominado tríodo, se puede utilizar como amplificador. Las pequeñas variaciones
de la tensión que se producen en la rejilla, como las generadas por una señal de
radio o de sonido, pueden provocar grandes variaciones en el flujo de electrones
desde el cátodo hacia el ánodo y, en consecuencia, en el sistema de circuitos
conectado al ánodo.
3.2.Transistores
Los transistores se componen de semiconductores. Se trata de materiales, como
el silicio o el germanio, dopados (es decir, se les han incrustado pequeñas
cantidades de materias extrañas), de manera que se produce un exceso o una
carencia de electrones libres. En el primer caso, se dice que el semiconductor es
del tipo n, y en el segundo, que es del tipo p. Combinando materiales del tipo n y
del tipo p se puede producir un diodo. Cuando éste se conecta a una batería de
manera tal que el material tipo p es positivo y el material tipo n es negativo, los
electrones son repelidos desde el terminal negativo de la batería y pasan, sin
ningún obstáculo, a la región p, que carece de electrones. Con la batería invertida,
los electrones que llegan al material p pueden pasar sólo con muchas dificultades
hacia el material n, que ya está lleno de electrones libres, en cuyo caso la
corriente es prácticamente cero.
El transistor bipolar fue inventado en 1948 para sustituir al tubo de vacío triodo.
Está formado por tres capas de material dopado, que forman dos uniones pn
(bipolares) con configuraciones pnp o npn. Una unión está conectada a la batería
para permitir el flujo de corriente (polarización negativa frontal, o polarización
directa), y la otra está conectada a una batería en sentido contrario (polarización
inversa). Si se varía la corriente en la unión de polarización directa mediante la
adición de una señal, la corriente de la unión de polarización inversa del transistor
variará en consecuencia. El principio se puede utilizar para construir
amplificadores en los que una pequeña señal aplicada a la unión de polarización
directa provocará un gran cambio en la corriente de la unión de polarización
inversa.
Otro tipo de transistor es el de efecto campo (FET, acrónimo inglés de Field-Effect
Transistor), que funciona sobre la base del principio de repulsión o de atracción de
cargas debido a la superposición de un campo eléctrico. La amplificación de la
corriente se consigue de modo similar al empleado en el control de rejilla de un
tubo de vacío. Los transistores de efecto campo funcionan de forma más eficaz
que los bipolares, ya que es posible controlar una señal grande con una cantidad
de energía muy pequeña.
3.3.Circuitosintegrados
La mayoría de los circuitos integrados son pequeños trozos, o chips, de silicio, de
entre 2 y 4 mm2, sobre los que se fabrican los transistores. La fotolitografía
permite al diseñador crear centenares de miles de transistores en un solo chip
situando de forma adecuada las numerosas regiones tipo n y p. Durante la
fabricación, estas regiones son interconectadas mediante conductores minúsculos,
a fin de producir circuitos especializados complejos. Estos circuitos integrados son
llamados monolíticos por estar fabricados sobre un único cristal de silicio. Los
chips requieren mucho menos espacio y potencia, y su fabricación es más barata
que la de un circuito equivalente compuesto por transistores individuales.
3.4. Reóstatos Al conectar una batería a un material conductor, una determinada
cantidad de corriente fluirá a través de dicho material. Esta corriente depende de
la tensión de la batería, de las dimensiones de la muestra y de la conductividad del
propio material. Los reóstatos de resistencia conocida se emplean para controlar
la corriente en los circuitos electrónicos. Se elaboran con mezclas de carbono,
láminas metálicas o hilo de resistencia, y disponen de dos cables de conexión. Los
reóstatos variables, con un brazo de contacto deslizante y ajustable, se suelen
utilizar para controlar el volumen de aparatos de radio y televisión.
3.5. Condensadores Los condensadores están formados por dos placas metálicas
separadas por un material aislante. Si se conecta una batería a ambas placas,
durante un breve tiempo fluirá una corriente eléctrica que se acumulará en cada
una de ellas. Si se desconecta la batería, el condensador conserva la carga y la
tensión asociada a la misma. Las tensiones rápidamente cambiantes, como las
provocadas por una señal de sonido o de radio, generan mayores flujos de
corriente hacia y desde las placas; entonces, el condensador actúa como
conductor de la corriente alterna. Este efecto se puede utilizar, por ejemplo, para
separar una señal de sonido o de radio de una corriente continua, a fin de
conectar la salida de una fase de amplificación a la entrada de la siguiente.
3.6. Inductores Los inductores consisten en un hilo conductor enrollado en forma
de bobina. Al pasar una corriente a través de la bobina, alrededor de la misma se
crea un campo magnético que tiende a oponerse a los cambios bruscos de la
intensidad de la corriente (véase Inducción). Al igual que un condensador, un
inductor se puede usar para diferenciar entre señales rápida y lentamente
cambiantes. Al utilizar un inductor conjuntamente con un condensador, la tensión
del inductor alcanza un valor máximo a una frecuencia específica que depende de
la capacitancia y de la inductancia. Este principio se emplea en los receptores de
radio al seleccionar una frecuencia específica mediante un condensador variable.
3.7. Dispositivos de detección y transductores La medición de magnitudes
mecánicas, térmicas, eléctricas y químicas se realiza empleando dispositivos
denominados sensores y transductores. El sensor es sensible a los cambios de la
magnitud a medir, como una temperatura, una posición o una concentración
química. El transductor convierte estas mediciones en señales eléctricas, que
pueden alimentar a instrumentos de lectura, registro o control de las magnitudes
medidas. Los sensores y transductores pueden funcionar en ubicaciones alejadas
del observador, así como en entornos inadecuados o impracticables para los seres
humanos.
Algunos dispositivos actúan de forma simultánea como sensor y transductor. Un
termopar consta de dos uniones de diferentes metales que generan una pequeña
tensión que depende del diferencial térmico entre las uniones (véase
Termoelectricidad). El termistor es un reóstato especial, cuya resistencia varía
según la temperatura. Un reóstato variable puede convertir el movimiento
mecánico en señal eléctrica. Para medir distancias se emplean condensadores de
diseño especial, y para detectar la luz se utilizan fotocélulas (véase Célula
fotoeléctrica). Para medir velocidades, aceleraciones o flujos de líquidos se recurre
a otro tipo de dispositivos. En la mayoría de los casos, la señal eléctrica es débil y
debe ser amplificada por un circuito electrónico.
4. CIRCUITOS DE ALIMENTACIÓN ELÉCTRICA
La mayoría de los equipos electrónicos requieren tensiones de c.c. para su
funcionamiento. Estas tensiones pueden ser suministradas por baterías o por
fuentes de alimentación internas que convierten la corriente alterna, que se puede
obtener de la red eléctrica que llega a cada vivienda, en tensiones reguladas de
c.c. El primer elemento de una fuente de alimentación de c.c. interna es el
transformador, que eleva o disminuye la tensión de entrada a un nivel adecuado
para el funcionamiento del equipo. La función secundaria del transformador es
servir como aislamiento de masa (conexión a tierra) eléctrica del dispositivo a fin
de reducir posibles peligros de electrocución. A continuación del transformador se
sitúa un rectificador, que suele ser un diodo. En el pasado se utilizaban diodos de
vacío y una amplia variedad de diferentes materiales (cristales de germanio o
sulfato de cadmio) en los rectificadores de baja potencia empleados en los
equipos electrónicos. En la actualidad se emplean casi exclusivamente
rectificadores de silicio debido a su bajo coste y alta fiabilidad.
Las fluctuaciones y ondulaciones superpuestas a la tensión de c.c. rectificada
(percibidas como un zumbido en los amplificadores de sonido defectuosos)
pueden filtrarse mediante un condensador. Cuanto más grande sea el
condensador, menor será el nivel de fluctuación de la tensión. Es posible alcanzar
un control más exacto sobre los niveles y fluctuaciones de tensión mediante un
regulador de tensión, que también consigue que las tensiones internas sean
independientes de las fluctuaciones que se puedan encontrar en un artefacto
eléctrico. Un sencillo regulador de tensión que se utiliza a menudo es el diodo de
Zener, formado por un diodo de unión pn de estado sólido que actúa como
aislante hasta una tensión predeterminada. Por encima de dicha tensión, se
convierte en un conductor que deriva los excesos de tensión. Por lo general, los
reguladores de tensión más sofisticados se construyen como circuitos integrados.
5.CIRCUITOS AMPLIFICADORES
Los amplificadores electrónicos se utilizan sobre todo para aumentar la tensión, la
corriente o la potencia de una señal. Los amplificadores lineales incrementan la
señal sin distorsionarla (o distorsionándola mínimamente), de manera que la salida
es proporcional a la entrada. Los amplificadores no lineales permiten generar un
cambio considerable en la forma de onda de la señal. Los amplificadores lineales
se utilizan para señales de sonido y vídeo, mientras que los no lineales se
emplean en osciladores, dispositivos electrónicos de alimentación, moduladores,
mezcladores, circuitos lógicos y demás aplicaciones en las que se requiere una
reducción de la amplitud. Aunque los tubos de vacío tuvieron gran importancia en
los amplificadores, hoy día se suelen utilizar circuitos de transistores discretos o
circuitos integrados.
5.1. Amplificadores de sonido Los amplificadores de sonido, de uso común en
radios, televisiones y grabadoras de cintas, suelen funcionar a frecuencias
inferiores a los 20 kilohercios (1 kHz = 1.000 ciclos por segundo). Amplifican la
señal eléctrica que, a continuación, se convierte en sonido con un altavoz. Los
amplificadores operativos, incorporados en circuitos integrados y formados por
amplificadores lineales multifásicos acoplados a la corriente continua, son muy
populares como amplificadores de sonido.
5.2. Amplificadores de vídeo Los amplificadores de vídeo se utilizan
principalmente para señales con un rango de frecuencias de hasta 6 megahercios
(1 MHz = 1 millón de ciclos por segundo). La señal generada por el amplificador se
convierte en la información visual que aparece en la pantalla de televisión, y la
amplitud de señal regula el brillo de los puntos que forman la imagen. Para realizar
esta función, un amplificador de vídeo debe funcionar en una banda ancha y
amplificar de igual manera todas las señales, con baja distorsión. Véase
Grabación de vídeo.
5.3. Amplificadores de radiofrecuencia Estos amplificadores aumentan el nivel de
señal de los sistemas de comunicaciones de radio o televisión. Por lo general, sus
frecuencias van desde 100 kHz hasta 1 gigahercio (1 GHz = 1.000 millones de
ciclos por segundo), y pueden llegar incluso al rango de frecuencias de
microondas.
6.OSCILADORES
Los osciladores constan de un amplificador y de algún tipo de retroalimentación: la
señal de salida se reconduce a la entrada del amplificador. Los elementos
determinantes de la frecuencia pueden ser un circuito de inductancia-capacitancia
sintonizado o un cristal vibrador. Los osciladores controlados por cristal ofrecen
mayor precisión y estabilidad. Los osciladores se emplean para producir señales
de sonido y de radio con una amplia variedad de usos. Por ejemplo, los
osciladores sencillos de radiofrecuencia se emplean en los teléfonos modernos de
botones para transmitir datos a la estación telefónica central al marcar un número.
Los tonos de sonido generados por los osciladores también se pueden encontrar
en relojes despertadores, radios, instrumentos electrónicos, computadoras y
sistemas de alarma. Los osciladores de alta frecuencia se emplean en equipos de
comunicaciones para controlar las funciones de sintonización y detección de
señales. Las emisoras de radio y de televisión utilizan osciladores de alta
frecuencia y de gran precisión para generar las frecuencias de transmisión.
7. CIRCUITOS DE CONMUTACIÓN Y TEMPORIZACIÓN
Los circuitos de conmutación y temporización, o circuitos lógicos, forman la base
de cualquier dispositivo en el que se tengan que seleccionar o combinar señales
de manera controlada. Entre los campos de aplicación de estos circuitos se
pueden mencionar la conmutación telefónica, las transmisiones por satélite y el
funcionamiento de las computadoras digitales.
La lógica digital es un proceso racional para adoptar sencillas decisiones de
“verdadero” o “falso” basadas en las reglas del álgebra de Boole. Verdadero puede
estar representado por un 1, y falso por un 0, y en los circuitos lógicos estos
numerales aparecen como señales de dos tensiones diferentes. Los circuitos
lógicos se utilizan para adoptar decisiones específicas de “verdadero-falso” sobre
la base de la presencia de múltiples señales “verdadero-falso” en las entradas. Las
señales se pueden generar por conmutadores mecánicos o por transductores de
estado sólido. La señal de entrada, una vez aceptada y acondicionada (para
eliminar las señales eléctricas indeseadas, o ruidos), es procesada por los
circuitos lógicos digitales. Las diversas familias de dispositivos lógicos digitales,
por lo general circuitos integrados, ejecutan una variedad de funciones lógicas a
través de las llamadas puertas lógicas, como las puertas OR, AND y NOT y
combinaciones de las mismas (como NOR, que incluye a OR y a NOT). Otra
familia lógica muy utilizada es la lógica transistor-transistor. También se emplea la
lógica de semiconductor complementario de óxido metálico, que ejecuta funciones
similares a niveles de potencia muy bajos pero a velocidades de funcionamiento
ligeramente inferiores. Existen también muchas otras variedades de circuitos
lógicos, incluyendo la hoy obsoleta lógica reóstato-transistor y la lógica de
acoplamiento por emisor, utilizada para sistemas de muy altas velocidades.
Los bloques elementales de un dispositivo lógico se denominan puertas lógicas
digitales. Una puerta Y (AND) tiene dos o más entradas y una única salida. La
salida de una puerta Y es verdadera sólo si todas las entradas son verdaderas.
Una puerta O (OR) tiene dos o más entradas y una sola salida. La salida de una
puerta O es verdadera si cualquiera de las entradas es verdadera, y es falsa si
todas las entradas son falsas. Una puerta INVERSORA (INVERTER) tiene una
única entrada y una única salida, y puede convertir una señal verdadera en falsa,
efectuando de esta manera la función negación (NOT). A partir de las puertas
elementales se pueden construir circuitos lógicos más complicados, entre los que
cabe mencionar los circuitos biestables (también llamados flip-flops, que son
interruptores binarios), contadores, comparadores, sumadores, y combinaciones
más complejas.
En general, para ejecutar una determinada función es necesario conectar grandes
cantidades de elementos lógicos en circuitos complejos. En algunos casos se
utilizan microprocesadores para efectuar muchas de las funciones de conmutación
y temporización de los elementos lógicos individuales. Los procesadores están
específicamente programados con instrucciones individuales para ejecutar una
determinada tarea o tareas. Una de las ventajas de los microprocesadores es que
permiten realizar diferentes funciones lógicas, dependiendo de las instrucciones
de programación almacenadas. La desventaja de los microprocesadores es que
normalmente funcionan de manera secuencial, lo que podría resultar demasiado
lento para algunas aplicaciones. En tales casos se emplean circuitos lógicos
especialmente diseñados.
8. AVANCES RECIENTES El desarrollo de los circuitos integrados ha
revolucionado los campos de las comunicaciones, la gestión de la información y la
informática. Los circuitos integrados han permitido reducir el tamaño de los
dispositivos con el consiguiente descenso de los costes de fabricación y de
mantenimiento de los sistemas. Al mismo tiempo, ofrecen mayor velocidad y
fiabilidad. Los relojes digitales, las computadoras portátiles y los juegos
electrónicos son sistemas basados en microprocesadores. Otro avance importante
es la digitalización de las señales de sonido, proceso en el cual la frecuencia y la
amplitud de una señal de sonido se codifica digitalmente mediante técnicas de
muestreo adecuadas, es decir, técnicas para medir la amplitud de la señal a
intervalos muy cortos. La música grabada de forma digital, como la de los discos
compactos, se caracteriza por una fidelidad que no era posible alcanzar con los
métodos de grabación directa.
La electrónica médica ha progresado desde la tomografía axial computerizada
(TAC) hasta llegar a sistemas que pueden diferenciar aún más los órganos del
cuerpo humano. Se han desarrollado asimismo dispositivos que permiten ver los
vasos sanguíneos y el sistema respiratorio. También la alta definición promete
sustituir a numerosos procesos fotográficos al eliminar la necesidad de utilizar
plata.
La investigación actual dirigida a aumentar la velocidad y capacidad de las
computadoras se centra sobre todo en la mejora de la tecnología de los circuitos
integrados y en el desarrollo de componentes de conmutación aún más rápidos.
Se han construido circuitos integrados a gran escala que contienen varios millones
de componentes en un solo chip. Se han llegado a fabricar computadoras que
alcanzan altísimas velocidades en las cuales los semiconductores son
reemplazados por circuitos superconductores que utilizan las uniones de
Josephson (véase Efecto Josephson) y que funcionan a temperaturas próximas al
cero absoluto.
Partes internas del cpu
La unidad central de proceso cpu en inglés CPU ó simplemente procesador. Es el
componente en una computadora digital que interpreta las instrucciones y procesa
los datos contenidos en los programas de computadora. Los CPU proporcionan la
característica fundamental de la computadora digital, la programabilidad, y son
uno de los componentes necesarios encontrados en los ordenadores o
computadores de cualquier tiempo, junto con el almacenamiento primario y las
facilidades de entrada/salida. Es conocido como microprocesador el CPU que es
manufacturado con circuitos integrados. Desde mediados de los años 1970, los
microprocesadores de un solo chip han reemplazado casi totalmente todos los
otros tipos de CPU, y hoy en día, el término "CPU" es aplicado usualmente a algún
tipo de microprocesador.
La expresión "unidad central de proceso" es, en términos generales, una
descripción de una cierta clase de máquinas de lógica que pueden ejecutar
complejos programas de computadora. Esta amplia definición puede fácilmente
ser aplicada a muchos de los primeros computadoras que existieron mucho antes
que el término "CPU" estuviera en amplio uso. Sin embargo, el término sí mismo y
su acrónimo han estado en uso en la industria del computadora por lo menos
desde el principio de los años 1960 . La forma, el diseño y la implementación de
los CPU ha cambiado dramáticamente desde los primeros ejemplos, pero su
operación fundamental ha permanecido bastante similar.
Los primeros CPU fueron diseñados a la medida como parte de una computadora
más grande, generalmente una computadora único en su especie. Sin embargo,
este costoso método de diseñar los CPU a la medida, para una aplicación
particular, ha desaparecido en gran parte y se ha sustituido por el desarrollo de
clases de procesadores baratos y estandarizados adaptados para uno o muchos
propósitos. Esta tendencia de estandarización comenzó generalmente en la era de
los transistores discretos, ordenadores centrales, y microordenadores, y fue
acelerada rápidamente con la popularización del circuito integrado (IC), éste ha
permitido que sean diseñados y fabricados CPU más complejos en espacios
pequeños (en la orden de milímetros). Tanto la miniaturización como la
estandarización de los CPU han aumentado la presencia de estos dispositivos
digitales en la vida moderna mucho más allá de las aplicaciones limitadas de
máquinas de computación dedicadas. Los microprocesadores modernos aparecen
en todo, desde automóviles, televisores, neveras, calculadoras, aviones, hasta
teléfonos móviles o celulares, juguetes, entre otros.
CPU de transistores y de circuitos integrados discretos
La complejidad del diseño de los CPU se incrementó a medida que varias
tecnologías facilitaron la construcción de dispositivos electrónicos más pequeños y
confiables. La primera de esas mejoras vino con el advenimiento del transistor.
Los CPU transistorizados durante los años 1950 y los años 1960 no tuvieron que
ser construidos con elementos de conmutación abultados, no fiables, y frágiles,
como los tubos de vacío y los relés eléctricos. Con esta mejora, fueron construidos
CPUs más complejos y más confiables sobre una o varias tarjetas de circuito
impreso que contenían componentes discretos (individuales).
Durante este período, ganó popularidad un método de fabricar muchos
transistores en un espacio compacto. El circuito integrado (IC) permitió que una
gran cantidad de transistores fueran fabricados en una simple oblea basada en
semiconductor o "chip". Al principio, solamente circuitos digitales muy básicos, no
especializados, como las puertas NOR fueron miniaturizados en ICs. Los CPU
basadas en estos IC de "bloques de construcción" generalmente son referidos
como dispositivos de pequeña escala de integración "small-scale integration"
(SSI). Los circuitos integrados SSI, como los usados en el computador guía del
Apollo (Apollo Guidance Computer), usualmente contenían transistores que se
contaban en números de múltiplos de diez. Construir un CPU completo usando
ICs SSI requería miles de chips individuales, pero todavía consumía mucho menos
espacio y energía que diseños anteriores de transistores discretos. A medida que
la tecnología microelectrónica avanzó, en los IC fue colocado un número creciente
de transistores, disminuyendo así la cantidad de ICs individuales necesarios para
un CPU completo. Los circuitos integrados MSI y el LSI (de mediana y gran escala
de integración) aumentaron el número de transistores a cientos, y luego a miles.
En 1964, IBM introducido su arquitectura de computador System/360, que fue
usada en una serie de computadores que podían correr los mismos programas
con velocidades y desempeños diferentes. Esto fue significativo en un tiempo en
que la mayoría de las computadoras electrónicas eran incompatibles una con la
otra, incluso las hechas por el mismo fabricante. Para facilitar esta mejora, IBM
utilizó el concepto de microprograma, a menudo llamado "microcódigo", que
todavía ve un uso extenso en los CPU modernos . La arquitectura System/360 era
tan popular que dominó el mercado del mainframe por las siguientes décadas y
dejó una herencia que todavía es continuada por computadores modernos
similares como el IBM zSeries. En el mismo año de 1964, Digital Equipment
Corporation (DEC) introdujo otro computador influyente dirigido a los mercados
científicos y de investigación, el PDP-8. DEC introduciría más adelante la
extremadamente popular línea del PDP-11, que originalmente fue construido con
ICs SSI pero eventualmente fue implementado con componentes LSI cuando
llegaron a ser prácticos. En fuerte contraste con sus precursores hechos con
tecnología SSI y MSI, la primera implementación LSI del PDP-11 contuvo un CPU
integrado por solamente cuatro circuitos integrados LSI .
Los computadores basados en transistores tenían varias ventajas distintas sobre
sus predecesores. Aparte de facilitar una creciente confiabilidad y un más bajo
consumo de energía, los transistores también permitían al CPU operar a
velocidades mucho más altas debido al corto tiempo de conmutación de un
transistor en comparación a un tubo o relé. Gracias tanto a la creciente
confiabilidad como a la dramáticamente incrementada velocidad de los elementos
de conmutación que por este tiempo eran casi exclusivamente transistores, fueron
obtenidas frecuencias de reloj del CPU de decenas de megahertz. Además,
mientras que los CPU de transistores discretos y circuitos integrados estaban en
fuerte uso, comenzaron a aparecer los nuevos diseños de alto rendimiento como
procesadores vectoriales SIMD (Single Instruction Multiple Data) (Simple
Instrucción Múltiples Datos). Estos tempranos diseños experimentales dieron lugar
más adelante a la era de los superordenadores o supercomputadores
especializados, como los hechos por Cray Inc.
El microprocesador
Historia
Han pasado muchos años desde que Intel lanzara al mercado su primer
microprocesador el 4004, convirtiéndose en la compañía pionera en la fabricación
de estos productos y líder en el sector con casi la totalidad del mercado.
Aquel 4004 presentado en el mercado el día 15 de noviembre de 1971, tenía unas
características únicas para la época: la velocidad del reloj sobrepasaba los 100
Khz., tenía un ancho de bus de 4 bits y podía manejar un máximo de 640 bytes de
memoria. Poco tiempo después, el 1 de abril de 1972, Intel lanzaba el 8008, una
versión mejorada del 4004. Contaba con un bus de 8 bits y una memoria de 16 Kb.
El número de transistores era de 3500, casi el doble que el anterior. Dos años
después se anunciaba el primer ordenador personal, con una velocidad de 2 MHz.
y una memoria de 64 Kb, se multiplicaba por 10 el rendimiento anterior.
Pero el ordenador personal no fue tal hasta la llegada en 1978 de IBM, con el
procesador 8086, con un bus de 16 bits, velocidades de 5,8 y 10 MHz, 29000
transistores usando tecnología de 3 micras y un máximo de 1Mb de memoria
direccionable. El siguiente modelo, el 8088, lanzado un año después, era
exactamente igual excepto que tenía un bus de 8 bits en lugar de 16, lo que lo
hacía más barato y llamativo en el mercado.
El 1 de febrero de 1982, Intel lanzaba el 80286, con un bus de 16 bits, 134000
transistores usando tecnología de 1.5 micras, un máximo de memoria
direccionable de 16 Mb y unas velocidades de 8, 10 y 12 MHz. Suponía el primer
ordenador que no fabricaba IBM en exclusiva, sino que otras muchas empresas
decidieron fabricar sus propias máquinas.
1985 se convierte en un año clave para la historia de los microprocesadores. El 17
de octubre Intel anuncia la aparición del procesador 80386DX con una arquitectura
de 32 bits, 275000 transistores, más de 100 veces los que tenía el 4004, la
velocidad llegaba hasta los 33 MHz. y era capaz de direccionar 4 Gb (tamaño que
todavía no ha sido superado por otro procesador de ámbito doméstico). En 1988
aparece el 80386SX, que sacrifica el bus de datos, para dejarlo a un menor coste.
Estos procesadores aparecieron con la explosión del entorno gráfico Windows,
desarrollado unos años antes por Microsoft, que permitió a personas de cualquier
condición poder manejar un ordenador con unos conocimientos mínimos de
informática.
La revolución continuó, y el 10 de abril de 1989 aparecía el Intel 80486, de nuevo
con tecnología 32 bits, pero con la incorporación del caché de nivel 1 en el propio
chip, que aceleraba la transferencia de datos entre este caché y el procesador, y
la aparición del coprocesador matemático integrado en el procesador, dejando de
ser una opción como en los 80386. Se sobrepasaba por primera vez el millón de
transistores usando tecnología de 1 micra (en los modelos a 50 MHz. se usó de
0.8 micras), lo que supuso pasar de realizar tareas complicadas en MS-DOS a
mover el cursor y pinchar en la opción deseada. Dos años más tarde Intel lanzó el
80486SX, idéntico al 80846DX pero sin el coprocesador matemático, lo que
reducía notablemente su coste en el mercado.
Sin embargo Intel anunció rápidamente la salida de un procesador que
multiplicaría por 5 el rendimiento del 80486, se trataba del Pentium. Estos
procesadores fueron los primeros a los que Intel dotó de un nombre dejando atrás
la nomenclatura numérica. La velocidad de estos procesadores iba de los 60 a los
200 MHz. con una arquitectura de 32 bits y una tecnología de 0.8 micras. Pronto
otras compañías comenzaron a hacer software diseñado para Pentium, como el
sistema operativo Windows 95, que aunque funciona en ordenadores con un
80486, no les saca su máximo rendimiento. A estas alturas le surgió a Intel la
primera competencia en el terreno de los procesadores, el K5 de AMD, con un
rendimiento similar al del Pentium pero con un peor trato en los datos de coma
flotante. No supuso una pérdida de ventas para Intel, pero fue el primer paso de la
guerra de procesadores que vivimos hoy.
El 27 de marzo de 1995, aparece el Pentium Pro, destinado a servidores de red y
estaciones de trabajo. Poseía una arquitectura de 64 bits y usaba tecnología de
0.32 micras para poder incluir cinco millones y medio de transistores. La evolución
continuó en los procesadores Intel y surgió el Pentium II con unas velocidades
iniciales de 233 y 266 MHz. Pero no hay que olvidar a AMD, que para ofrecer la
competencia al Pentium II sacó su gama de K6 (K6, II y III), algunos de los cuales
ofrecían un mayor rendimiento que los de Intel.
Actualmente hay el Pentium III, con unas velocidades que llegan hasta 1 GHz, por
el momento, y estamos a la espera del Pentium 4. AMD se ha consolidado como
la competencia de Intel arrebatándole parte del mercado con el Athlon K7, que
ofrece mejor rendimiento que los Pentium a la misma velocidad. Esto ha hecho
que ambas compañías se sumerjan en una guerra por ver quien saca el mejor
procesador el mercado, lo que lleva como consecuencia una evolución más rápida
y un avance en las tecnologías.
Procesador
Velocidad de
reloj
Ancho de Nº de
bus
transistores
4004
108 KHz
4 bits
2300
8008
108 KHz
8 bits
3500
8008
2 MHz
8 bits
6000
80286
8, 10 y 12 MHz
16 bits
134000
Intel
386DX
16, 20, 25 y 33
MHz
32 bits
275000
Intel
386SX
16 y 20 MHz
16 bits
275000
Intel
486DX
25, 33 y 50 MHz 32 bits
1185000
Intel
486SX
16, 20, 25 y 33
MHz
32 bits
1185000
32 bits
3100000
64 bits
7500000
60, 66, 75, 90,
100,
Pentium
120, 133, 150,
166
y 200 MHz
Pentium II
233, 266 y 300
MHz
Ley de Moore
Aquí haré una pequeña mención a la ley que el Dr. Gordon Moore formuló en el
año 1965. Esta ley viene a decir que cada 18 meses se duplica la cantidad de
transistores contenidos en un procesador. Esta ley se ha cumplido los últimos 30
años y se espera que se siga cumpliendo.
Partes de Microprocesador

El encapsulado: es lo que rodea a la oblea de silicio en sí, para darle
consistencia, impedir su deterioro (por ejemplo por oxidación con el aire) y
permitir el enlace con los conectores externos que lo acoplarán a su zócalo
o a la placa base.

La memoria caché: una memoria ultrarrápida que sirve al micro para tener a
mano ciertos datos que previsiblemente serán utilizados en las siguientes
operaciones sin tener que acudir a la memoria RAM, reduciendo el tiempo
de espera. Es lo que se conoce como caché de primer nivel o L1; es decir,
la que está más cerca del micro, tanto que está encapsulada junto a él.
Todos los micros tipo Intel desde el 486 tienen esta memoria, también
llamada caché interna.

El coprocesador matemático: más correctamente, la FPU (Floating Point
Unit, Unidad de coma Flotante). Parte del micro especializada en esa clase
de cálculos matemáticos; también puede estar en el exterior del micro, en
otro chip.

El resto del microprocesador: el cual tiene varias partes, unidad de enteros,
registros, etc.
Modelos de Microprocesador
A parte de los antiguos modelos 486 y anteriores, la gama de procesadores difiere
según su fabricante.

Intel cuenta con la gama Pentium: MMX, Pro, Pentium II, Celeron, Xeon,
Pentium III y en la actualidad se ha anunciado la aparición del Pentium 4.

AMD tiene el K5, K6, K6 II, K6 III, K7 Athlon y el Duron.

Cyrix: el 6x86, 6x86MX y MII.

IDT: Winchip C6, Winchip2 y Winchip3.
La Placa base
La "placa base" (mainboard), o "placa madre" (motherboard), es el elemento
principal de todo ordenador, en el que se encuentran o al que se conectan todos
los demás aparatos y dispositivos. Físicamente se trata de una placa de material
sintético sobre la cual existe un circuito electrónico que conecta diversos
elementos que se encuentran anclados sobre ella, y los principales son: el
microprocesador (pinchado en el zócalo), la memoria (generalmente en forma de
módulos), los slots o ranuras de expansión donde se conectan las tarjetas, y
diversos chips de control entre ellos la BIOS.
Una de las primeras distinciones que se pueden hacer es respecto al tamaño, y
hay dos grandes estándares: ATX y Baby AT. Las ATX cada vez son más
comunes y van camino de ser las únicas del mercado, son de más fácil ventilación
debido a que el microprocesador suele colocarse cerca del ventilador de la fuente
de alimentación, una de las diferencias con la Baby AT son los conectores (que
suelen ser más USB), que están agrupados y tienen el teclado y ratón con clavijas
mini-DIN. Las placas Baby AT fueron el estándar durante años, es una placa con
unas posiciones determinadas para el conector del teclado, los slots de expansión
y los agujeros de anclaje a la caja, así como un conector eléctrico dividido en dos
piezas.
En los ordenadores actuales existen seis tipos de zócalos para el procesador:
Socket 7, Socket 8, Super 7, Slot 1, Slot 2 y Socket 370. Las placas Socket 7
albergan los procesadores Pentium, K5 de AMD, 6x86 de Cyrix y Winchip C6 de
IDT; ya no se venden, pues carecen de las interfaces más utilizadas en la
actualidad, como el bus AGP y el puerto USB. Estos dos estándares se incorporan
en las placas Super 7, también compatibles Pentium y K6. Las placas Socket 8,
muy escasas, albergan los extinguidos procesadores Pentium Pro. Las placas Slot
1 son necesarias para suministrar soporte a los Pentium II/III y Celeron, y suelen
disponer del formato ATX, que reorganiza la localización de las tarjetas, para que
quepa mayor cantidad en el mismo espacio, y se reduzca el cruce de cables
internos. Una variante son las placas Slot 2, soporte de la versión Xeon del
Pentium II, utilizada en servidores profesionales. Finalmente, las placas Socket
370 alojan una versión especial de Celeron, con las mismas prestaciones que el
modelo Slot 1, pero más barato para el fabricante.
El bus de la placa base son los canales por donde circulan los datos que van y
vienen del microprocesador. Con la aparición de microprocesadores muy rápidos
se desperdiciaba parte de su potencia debido a que el bus hacía de cuello de
botella, atascando los datos y haciendo esperar al microprocesador a que
estuvieran disponibles los datos. Tras el tradicional bus ISA de 8 MHz han surgido
otras alternativas como el Vesa Local Bus y el PCI, que ampliaban el ancho de
banda de 16 hasta 32 bits. El resultado es una mejora en el rendimiento al
transferir el doble de información (de 16 a 32 bits) en una misma operación. El
Vesa Local Bus se quedó rápidamente obsoleto, permaneciendo el bus PCI que
es el que se esta usando.
Las placas más modernas soportan una velocidad del bus que varía entre los 50 y
los 100 MHz, en función del procesador utilizado. La placa también incorpora
distintos multiplicadores: 2x, 3x, etc. Valores superiores a 5x comienzan a ser
imprescindibles. Estos dos datos se utilizan para soportar todo tipo de
procesadores. A mayor número de velocidades del bus y multiplicadores, la placa
soportará mayor cantidad de procesadores. Para instalar un Pentium II a 400 MHz,
por ejemplo, se configura el bus a 100 MHz y se activa el multiplicador 4x.
100x4=400 MHz. Un Pentium a 200 MHz se configura con un bus a 66 MHz y un
multiplicador 3x. 66x3=198 MHz.
Una placa base actual debe disponer de una ranura AGP para la tarjeta gráfica,
cuatro o cinco PCI y de los puertos exteriores no pueden faltar dos entradas COM
y al menos dos USB.
La BIOS
La BIOS (Basic Input-Output System, sistema básico de entrada-salida). Es un
programa incorporado en un chip de la placa que se encarga de realizar las
funciones básicas de manejo y configuración del ordenador.
La Bios debe poder modificarse, al añadir un disco duro, al cambiar al horario de
verano, por eso se implementan en memoria. Pero debe mantenerse al apagar el
ordenador, por lo que se usan memorias especiales, como la CMOS, por lo que a
veces el programa que modifica la Bios se denomina “CMOS Setup”. Esta
memoria se borra si les falta electricidad, pero consumen tan poco que se
mantienen durante años con una pila (normalmente de botón, como las de un
reloj).
Memoria caché
El procesador, si necesita información, primero consulta en este tipo de memoria
intermedia para ver si lo que busca está allí. En caso afirmativo, se trabaja con
esos datos sin tener que esperar a que se acceda a la memoria principal.
Existen 2 tipos de memoria caché: L1 (level 1 o primer nivel) y L2 (level 2 o
segundo nivel). La caché L1 va incorporada en el procesador y tiene un acceso
más rápido por parte de este, y la L2 es una pieza externa, aunque en el Pentium
Pro va integrada y en el Pentium II va en la tarjeta del procesador. En estos casos
la velocidad de la caché L2 es mayor al no pasar por una línea de BUS.
La memoria caché es una capa intermedia entre la memoria Ram y el procesador,
y en ella se guarda un registro de las direcciones de memoria utilizadas
recientemente y los valores que contienen. Cuando el procesador pide acceso a la
memoria la dirección y el valor están en la memoria, pero si no lo están lo copiará
de la memoria y reemplazará el antiguo valor con éste. De este modo el
procesador puede acceder con mayor rapidez a los datos más utilizados.
Al ser mucho más rápida la caché L1, mayor tamaño implica mayor velocidad de
proceso, como los Pentium MMX (32 Kb de caché L1) o los procesadores K6 de
AMD (64 Kb de caché L1). La ausencia de L2 afecta negativamente a las
prestaciones del equipo, pero la diferencia entre 256kb y 512kb es de un 5%,
excepto si se usan sistemas operativos como Windows NT, OS/2 o UNÍS, donde
se necesita almacenar gran cantidad de memoria en la caché.
Existen tres clases diferentes de memoria caché:

Async SRAM (Asynhronous Static RAM): es la antigua caché de los 386,
486 y primeros Pentium. Más rápida que la DRAM pero que provoca
igualmente estados de espera en el procesador. Su velocidad es de 20, 15
o 12 ns.

Sync SRAM (Synchronous Burst Static RAM): es la mejor para un bus de
66 MHz y puede sincronizar la velocidad de la caché con la velocidad del
procesador. Su velocidad es de 12 a 8.5 ns.

PB SRAM (Pipelined Burst Static RAM): funciona de manera sincronizada
con el procesador a velocidades de hasta 133 MHz. Tarda un poco más
que la anterior en cargar los datos, pero una vez cargados el procesador
puede acceder a ellos con más rapidez. Su velocidad es de 4.5 a 8 ns.
EL FUNCIONAMIENTO DE LA RAM CACHE.
La RAM caché está, pues, situada entre la CPU y la memoria de trabajo y opera a
modo de memoria intermedia. Dado que las computadoras compatibles IBM
procesan las instrucciones de forma secuencial (por orden de llegada), los mejores
programas son los escritos partiendo del "principio de localidad". Este principio
determina que al ponerse en marcha el programa se utilicen partes de memoria de
un sector inmediato, ubicadas en serie y lo mas cerca posible unas de otras. Los
saltos a zonas de la memoria mas alejadas ("far jumps") son poco frecuentes.
Para activar un bucle de programación que vaya a ejecutarse con asiduidad, debe
extraerse de la memoria una y otra vez la misma instrucción. La memoria caché
funciona de forma que ante una solicitud de la CPU, el fragmento de la memoria a
leer y el que le sigue han de ser cargados primero en la memoria caché y luego
enviados a la CPU. Cualquier usuario que conozca las bases técnicas de la
programación sabe que la próxima solicitud de la CPU hará referencia al mismo
sector de la memoria o a uno vecino del anteriormente consultado. Así, con este
método al memoria caché puede satisfacer, en la mayoría absoluta de los casos,
las consultas formuladas. Si no dispusiéramos de ella, la memoria de trabajo
tendría, una vez mas, que pasar a la acción.
El procedimiento descrito optimiza, asimismo, los accesos del procesador a la
memoria de trabajo. El aprovechamiento de la operatividad de los procesadores
de alto rendimiento depende, así, de la capacidad que tenga la memoria caché de
satisfacer a la CPU. Frente a un fallo de la caché la CPU se ve obligada a recurrir
a la relativamente mas lenta memoria de trabajo. Los fabricantes de placas madre
utilizan estrategias de caché muy diversas. Las diferencias residen en la manera
de almacenar y localizar los datos y los usos que se le dan al contenido de esta
memoria. También los procesos de reproducción, es decir, los principios que rigen
el modo de copiar la memoria de trabajo sobre la caché, pueden diferir unos de
otros. Las dimensiones de la memoria caché son igualmente importantes, pero no
vamos a recrearnos aquí¡ sobre las peculiaridades que distinguen a un principio
de reproducción asociativo total de uno parcial.
En resumen puede decirse que las placas con una frecuencia idéntica pero con o
sin caché‚ externa son tan diferentes como la noche del día. Solo mediante una
RAM caché puede aprovecharse de forma real toda la capacidad de un
procesador. Incluso en las placas 386SX las diferencias mencionadas se hacen
palpables.
Respecto a las dimensiones de la memoria caché, cabe señalar que una
computadora con el DOS tiene mas que suficiente con 64 Kb (es el tamaño ideal).
Comparaciones efectuadas revelaron que, por ejemplo, un 486 que opere bajo el
DOS se vera alentizado en proporción a las dimensiones de la caché instalada. El
rendimiento del mismo, tras la ampliación de una memoria caché de 64 a 256
kilobytes se redujo en un 10% aproximadamente. Bajo el OS/2, en cambio, se
constató un claro aumento de la capacidad operativa.
Memoria Ram
La memoria Ram (Ramdom Acces Memory, Memoria de Acceso Aleatorio) es
donde el ordenador guarda los datos que está utilizando en el momento presente.
La diferencia entre Ram y otros tipos de memoria de almacenamiento, es que la
Ram es mucho más rápida y que se borra al apagar el ordenador.
Físicamente, los chips de memoria suelen ir soldados a una pequeña placa con un
determinado número de contactos o pines (llamados módulos). Encontramos de
30 contactos (8 bits) y que mide unos 9cm, de 72 (32 bits) y casi 11 cm y de 168
(64 bits) y 13 cm de longitud. Las de 30 y 72 contactos reciben el nombre de SIMM
(Single In-line Memory Module) que se fabrican con capacidades de 4, 8, 16, 32 y
64 Mb y funcionan a 5V, mientras que la de 168 se conoce como DIMM (Double
In-line Memory Module) que llevan dos muescas para facilitar su colocación, se
pueden montar de 1 en 1 y pueden trabajar a 3,3V o a 5V dependiendo del tipo.
El tiempo de acceso a la memoria por lo general viene grabado en los chips,
también se puede calcular de forma sencilla: Tiempo de acceso = (1000 / Frec. del
procesador en MHz) x 2 nanosegundos.
Existen muchos tipos de memoria Ram, solo mencionaré los tipos más
importantes:

DRAM: Dinamic RAM, es la primera utilizada y por tanto la más lenta, su
velocidad de refresco es de 80 0 70 nanosegundos, y era usada hasta el
386.

FPM: Fast Page, es la evolución de la anterior. Algo más rápida tanto por
su estructura (Página Rápida) como por ser de 70 o 60 ns. Usada hasta los
primeros Pentium, aparecía en forma de SIMM's de 30 o 72 contactos.

EDO-RAM: Extended Data Output RAM. Evoluciona de la Fast Page. La
novedad es que permite empezar a introducir nuevos datos mientras los
anteriores están saliendo, lo que la hace más rápida (un 5%). Común en los
Pentium MMX y AMD K6 refrescos de 60 o 50 ns. Se instala en SIMM's de
72 contactos aunque existen DIMM's de 168.

SDRAM: Sincronic-RAM. Funciona de manera sincronizada con la
velocidad de la placa (de 50 a 66 MHz), por lo que debe ser rapidísima, de
25 a 10 ns. Sólo se presenta en forma de DIMM's de 168 contactos.

PC100: SDRAM de 100 MHz. Memoria SDRAM capaz de funcionar los 100
MHz que usan los Pentium II a 350 MHz, AMD K6-2 y procesadores más
modernos.

PC133: SDRAM de 133 MHz, es la más moderna.
Discos
Disquetera
Las unidades de disquete sólo han existido dos formatos físicos considerados
como estándar, el de 5 1/4 y el de 3 1/2. En formato de 5 1/4, el IBM PC original
sólo contaba con unidades de 160 Kb., esto era debido a que dichas unidades
sólo aprovechaban una cara de los disquetes. Luego, con la incorporación del PC
XT vinieron las unidades de doble cara con una capacidad de 360 Kb.(DD o doble
densidad), y más tarde, con el AT, la unidad de alta densidad (HD) y 1,2 Mb El
formato de 3 1/2 IBM lo impuso en sus modelos PS/2. Para la gama 8086 las de
720 Kb. (DD o doble densidad) y para el resto las de 1,44 Mb. (HD o alta
densidad) que son las que hoy todavía perduran. En este mismo formato, también
surgió un nuevo modelo de 2,88 Mb. (EHD o Extra alta densidad), pero no
consiguió cuajar.
Discos Duros
Un disco duro está compuesto de numerosos discos de material sensible a los
campos magnéticos, apilados unos sobre otros; en realidad se parece mucho a
una pila de disquetes sin sus fundas y con el mecanismo de giro y el brazo lector
incluido en la carcasa. Han evolucionado mucho desde los modelos primitivos de
10 ó 20 MB. Actualmente los tamaños son del orden de varios gigabytes, el tiempo
medio de acceso es muy bajo (menos de 20 ms) y su velocidad de transferencia
es tan alta que deben girar a más de 5.000 rpm (revoluciones por minuto). En los
discos duros hay que tener en cuenta una serie de parámetros:

Capacidad: en la actualidad es aconsejable un mínimo de 10 o 12 Gb.

Tiempo de acceso: nos indica la capacidad para acceder de manera
aleatoria a cualquier sector del disco.

Velocidad de transferencia: esta directamente relacionada con el interface.
En un dispositivo Ultra-2 SCSI es de 80 MBytes/seg. mientras que en el
Ultra DMA/33 (IDE) es de 33,3 MBytes/seg. en el modo DMA-2. Esta
velocidad es la máxima que admite el interface, y no quiere decir que el
disco sea capaz de alcanzarla.

Velocidad de rotación: Suele oscilar entre las 4500 y las 7200 revoluciones
por minuto. Es un factor importante y a tener en cuenta.

Caché de disco: la memoria caché implementada en el disco es importante,
pero más que la cantidad es importante la manera en que ésta se organiza.
Por ello este dato normalmente no nos da por sí solo demasiadas pistas.
Son normales valores entre 64 y 256 Kb.
Los dos interfaces de disco duro son el IDE y el SCSI. El primero, sus discos la
limitación a 528 Mb. y pudiendo solo conectar hasta 2 de ellos. Después vinieron
los discos EIDE (FastATA) compatibles con los primeros, pero con algunas
mejoras, basadas en la especificación ATA-2, que ya soporta unidades de CDROM (ATAPI) y de cinta. Otra mejora importante es el soporte de 2 canales para
conectar hasta 4 unidades. Además se definen varios modos de transferencia de
datos, que llegan hasta los 16,6 Mb./seg. como el PIO-4, o mejor aún el DMA-2,
que soporta la misma tasa pero sin intervención de la CPU. La última
especificación, desarrollada por Quantum es la Ultra DMA/33 (UltraATA), que
permite transferencias DMA a 33 Mb./seg.
El segundo, el interface SCSI, su primer disco, llamado SCSI-1, con un ancho de
bus de 8 bits, aunque ya en esta primera especificación se incluían características
muy destacadas, como la posibilidad de conectar hasta 7 dispositivos de todo tipo,
discos, cintas, escáneres, CD-ROM, etc. Después viene el SCSI-2, que ya dispone
de un ancho de bus de 16 bits. El siguiente paso es el Fast-SCSI, considerado el
doble de rápido. Después viene el Wide SCSI, ya con un ancho de bus de hasta
32 bits, así como un mayor rendimiento.
Tarjeta de video
Es lo que transmite al monitor la información gráfica que debe presentar la
pantalla, y realiza dos operaciones básicas: interpreta los datos que le llegan del
procesador, ordenándolos y calculando para poder presentarlos en la pantalla en
forma de un rectángulo más o menos grande compuesto de puntos individuales de
diferentes colores (pixels) y coge la salida de datos digitales resultante de ese
proceso y la transforma en una señal analógica que pueda entender el monitor.
Las primeras tarjetas gráficas presentaban el texto en monocromo, generalmente
en un tono verde brillante. Con la llegada de los primeros PC's aparecieron las
tarjetas CGA que eran capaces de mostrar las imágenes en 4 colores a una
resolución de 320 x 200 y en monocromo a 640 x 200. IBM invento la tarjeta EGA
capaz de mostrar imágenes de 16 en tres resoluciones diferentes. Apareció más
tarde la VGA que tenía multitud de modos de video posibles, pero el más común
era el de 640 x 480 con 256 colores. Recientemente las tarjetas de video ya no
son tales, son tarjetas gráficas con su propio chip para procesar imágenes 3D
incluso más potente que algunos procesadores.
La tarjeta gráfica se conecta la placa base mediante un slot o ranura de
expansión, algunos tipos de ranura se han creado precisamente para satisfacer a
la ingente cantidad de información que se transmite cada segundo a la tarjeta
gráfica:

ISA: poco apropiado para uso gráfico. Usado hasta las primeras VGA que
aceleraban la velocidad del sistema para liberar al microprocesador de
parte de la tarea gráfica.

VESA Local BUS: era un conector íntimamente unido al microprocesador, lo
que aumentaba la transmisión de datos y una solución usada en muchas
placas de 486.

PCI: hasta hace poco el estándar de conexión de las tarjetas gráficas. Veloz
para las anteriores tarjetas 2D pero ineficaz para las nuevas 3D.

AGP: pensado únicamente para tarjetas gráficas que transmiten gran
cantidad de información por segundo, tiene la ventaja de que las tarjetas
AGP pueden usar memoria del sistema como memoria de video (lo cual
afecta al rendimiento).
Las tarjetas aceleradoras 3D sólo sirven para juegos y para programas de diseño
gráfico 3D que estén preparados para sacarles partido. Si habitualmente
trabajamos con programas ofimáticos no se obtiene ningún beneficio de estas
nuevas tarjetas.
En cuanto a la programación en 3D, en un principio cada fabricante usaba su
propia API (lenguaje) para que los programas se comunicaran con el hardware.
Hoy sólo sobreviven 3: Glide, que es la propia de las tarjetas Voodoo de 3dfx y
que consiguió imponerse a las demás gracias a la aceptación de estos chips por
su elevado rendimiento; Direct3D, que es parte de las DirectX de Microsoft, y
Open GL que es propiedad de Silicon Graphics y que hace ya mucho tiempo se
utilizaba en las estaciones de trabajo de esta marca.
Parece que en un futuro cercano sólo sobrevivirá una de ellas, y ésta no será más
que Direct3D, aunque eso sí, gracias a un acuerdo alcanzado con S.G. que
permitirá fusionar totalmente ambas plataformas (de hecho en las DirectX 6 ya
está presente gran parte del API OpenGL).
EL BUS ISA.
Las siglas ISA hacen referencia a la (I)nduistrial (S)tandart (A)rchitecture
(Arquitecutra Industrial Estandarizada). Cuando en la actualidad se habla de
estándares industriales o del bus ISA se suele hacer pensando en el Bus AT de 16
bits. Este preconcepto no es, de todos modos, absolutamente adecuado pues la
denominación ya se empleaba en los tiempos del XT de IBM y por razones muy
validas.
Las ranuras de expansión uniformes del XT fueron unas de las razones
fundamentales para la enorme difusión de este tipo de computadoras y la de sus
sucesores. Las mismas representan de la forma más clara el concepto de la
arquitectura abierta de las computadoras, la cual, a través de la incorporación de
tarjetas de expansión de todo tipo, capacita a la computadora para realizar
cualquier clase de tarea, sobre todo las relacionadas con entornos industriales.
Las ranuras del XT incluían, junto al Bus de direcciones de 20 bits, un solo Bus de
datos de 8 bits. Su capacidad operativa era, por tanto, y desde una perspectiva
actual bastante limitada.
Como ya hemos apuntado, en las mayorías de las placas madres encontramos,
junto a las citadas ranuras de 16 bits, dos o mas ranuras de 8 bits. Ello se debe a
la ambición de economizar (¿ tacañería ?) del fabricante, pues la introducción de
tarjetas de 8 bits es, naturalmente, posible en los slots de 16 bits.
Con una frecuencia de reloj de 8MHz, el Bus AT alcanza un índice máximo de
transmisión de datos de 6.5 MB/S, un valor más que aceptable pero que es
plenamente utilizado por muy pocas tarjetas.
Pero desde hace poco, y merced a la cada vez más común utilización de CPU de
32 bits, pueden emplearse sistemas de Bus capaces de alcanzar cotas de
transmisión de datos más elevadas.
EL BUS EISA.
Las siglas EISA corresponden a la (E)nhanced (I)ndustrial (S)tandart
(A)rchitecture, que vendría a ser algo así como la arquitectura industrial
estandarizada y ampliada. En la practica el Bus EISA no es sino una prolongación
del Bus AT, desarrollada por los fabricantes de computadoras mas importantes del
mundo ( a excepción de IBM) a fin de enfrentar los cada vez más importantes
retos planteados por los procesadores de 32 bits. El BUS EISA es un Bus de 32
bits autentico. Esto significa que los 32 conductos de datos de su CPU están
disponibles en el slot de expansión correspondiente.
El índice notablemente superior de transmisión de datos no es la única ventaja
que lo caracteriza frente al BUS ISA. Hay un rasgo mucho más importante y
habitualmente menos tomado en cuenta que lo define: la capacidad multiusuario.
Esta posibilita el acceso común de varios procesadores a un mismo Bus, con lo
cual problemas como la configuración de un computadora en paralelo a través de
tarjetas de CPU, tendrían fácil solución.
EL BUS MCA.
El bus MCA o MICROCHANNEL, como se le suele denominar, no es en realidad
un bus, sino una especie de sistema de canalización, en el cual los datos no son
transmitidos al receptor correspondiente mediante un código simple de
direccionamiento, sino que, prácticamente, tienen que ser recogidos por él. Para
ello, previamente se informa al receptor (que puede ser, por ejemplo, la tarjeta
gráfica) sobre el punto en el que se encuentran los datos y se le da acceso a un
canal, por el cual pueden ser transportados.
Este proceso tiene lugar sin la participación de la CPU. El MICROCHANNEL, que
fue desarrollado por IBM para su línea de equipos PS/2, alcanza, con esta
metodología un índice de rendimiento nada despreciable. La cota de transmisión
de datos puede llegar a los 20 MB/s y además el procesador, también mejora su
ritmo operativo.
Sin embargo, este sistema no ha conseguido implantarse fuera de la generación
IBM PS/2 para la que fue diseñado. La razón de ello no es otra que su total
incompatibilidad con las demás tarjetas existentes. Por consiguiente, si desea
instalar una placa MICROCHANNEL tendrá que descartar los componentes del
sistema que ya disponía y adquirir los que se corresponden con ella. Y todo esto a
un precio superior al que usted estaba acostumbrado.
En efecto, hasta la mas insignificante ampliación, pensemos, por ejemplo, en una
ranura adicional, requiere elementos electrónicos costosos y complejos (al fin y al
cabo el objetivo es liberar de trabajo a la CPU) para adaptarse al
MICROCHANNEL. Este hecho, junto a la difícil situación de las patentes, llevo al
resto de fabricantes a desarrollar el estándar EISA arriba descrito.
Así las cosas, si usted es ya propietario de una IBM PS/2 (exceptuemos al PS/230, que cuenta con un estándar ISA de 8 bits), le felicitamos por disponer de un
sistema de bus inteligente y con gran capacidad operativa y deseamos que no se
vea en la necesidad de efectuar ampliaciones. Si esta contemplando la idea de
adquirir una de estas computadoras, tendría que analizar la mejora del
rendimiento que le ofrece MICROCHANNEL, frente a las limitadas posibilidades
de expansión que implica. No olvide que muchas modificaciones es estos equipos
(véase, por ejemplo, la instalación de una unidad de disquete de 5 1/4 pulgadas o
de un disco duro mas potente) requieren inversiones considerables o la asistencia
directa del fabricante.
Tarjeta de sonido
En un principio el ordenador no fue pensado para manejar sonido, excepto por el
llamado altavoz interno o PC speaker. Pero entró en escena el software que más
ha hecho evolucionar los ordenadores desde su aparición: los videojuegos. Estos
eran mucho mejores cuando los muñequitos emitían algunos sonidos y tenían
alguna musiquilla. Y apareció en el mercado la tarjeta que revolucionó el sonido en
los PC's y que se convirtió en estándar, la tarjeta de sonido SoundBlaster.
Esta tarjeta convertía los datos digitales del ordenador en analógicos para que
pudieran oírse por los altavoces, de eso se encargaba el DAC (Conversor
Analógico-Digital) y cuando se hace al revés deberemos transformar esos datos
analógicos que llegan por el cable en muestras digitales que podamos almacenar
en nuestro disco duro.
Hoy en día esta de moda el sonido 3D o envolvente. Para conseguir esto, del
mismo modo que existen juegos con gráficos 3D, también pueden soportar sonido
3D (o ambiental). Si un juego 3D debe estar programado con alguna librería
gráfica 3D (léase Glide, Direct 3D o OpenGL), también debe estarlo para soportar
el sonido ambiental, mediante el uso de alguna de los formatos existentes.
Las conexiones que usan las tarjetas de sonido son tradicionalmente los
conectores mini-jack, como los de un radiocasete portátil normal. Otro de los
conectores es el RCA, tradicional en las cadenas de sonido domésticas; usan un
canal independientemente del otro (en dos cables, uno rojo y otro blanco) que
ofrecen más calidad que el mini-jack, pero son más caros y menos compactos.
Además de estos conectores externos, los hay también internos, siendo el más
importante el que va al CD-ROM, para poder escuchar los CDs de música. Puede
ser digital (sólo en los más modernos) o el típico analógico, del cual hace tiempo
había varios formatos (para CD-ROMs Sony, Mitsumi, IDE...) ahora ya unificados.
Módem
Módem es el acrónimo de modulador / demodulador, es decir, un dispositivo que
transforma las señales digitales del ordenador en señal telefónica analógica y
viceversa, con lo que permite al ordenador transmitir y recibir información por la
línea telefónica.
La principal distinción entre los módems es entre internos y externos:

Internos: consisten en una tarjeta de expansión sobre la cual están
dispuestos los diferentes componentes que forman el módem. Existen para
diversos tipos de conector:
o
ISA: debido a las bajas velocidades que se manejan en estos
aparatos, durante muchos años se utilizó en exclusiva este conector,
hoy esta en desuso.
o
PCI: el formato más común en la actualidad.
o
AMR: sólo en algunas placas muy modernas. Baratos pero poco
recomendables por su bajo rendimiento.
La principal ventaja de estos módems reside en su mayor integración con el
ordenador, ya que no ocupan espacio sobre la mesa y toman su alimentación
eléctrica del propio ordenador. Además, suelen ser algo más baratos debido a
carecer de carcasa y transformador. Por contra, son algo más complejos de
instalar y la información sobre su estado sólo puede obtenerse mediante software

Externos: son similares a los anteriores pero metidos en una carcasa que
se coloca sobre la mesa o el ordenador. La conexión con el ordenador se
realiza generalmente mediante uno de los puertos serie o "COM", por lo
que se usa la UART del ordenador, que deberá ser capaz de proporcionar
la suficiente velocidad de comunicación; actualmente ya existen modelos
para puerto USB, de conexión y configuración aún más sencillas. La ventaja
de estos módems reside en su fácil transportabilidad entre ordenadores,
además de que podemos saber el estado el módem (marcando, con / sin
línea, transmitiendo...) mediante unas luces que suelen tener en el frontal.
Por el contrario, son un trasto más, necesitan un enchufe para su
transformador y la UART debe ser la adecuada.
La velocidad es el parámetro que mejor define a un módem. Las velocidades de
los módems vienen expresadas en bits por segundo, bps. El estándar más
habitual y el más moderno está basado en la actual norma V.90 cuya velocidad
máxima está en los 56 Kbps (Kilobits por segundo). Esta norma se caracteriza por
un funcionamiento asimétrico, puesto que la mayor velocidad sólo es alcanzable
"en bajada", ya que en el envío de datos está limitada a 33,6 Kbps.
Otra consideración importante es que para poder llegar a esta velocidad máxima
se deben dar una serie de circunstancias que no siempre están presentes y que
dependen totalmente de la compañía telefónica que nos presta sus servicios,
pudiendo ser en algunos casos bastante inferiores.
Posiblemente, el componente más importante de un módem es el chip UART
(Universal Asynchronous Receiver/Transmitter), encargado de transmitir los datos;
existen varios modelos de UART, el más básico de los cuales es el 8250A,
empleado en ordenadores 286 y 386 y ya obsoleto.
La velocidad de comunicación entre el módem y el ordenador debe ser mayor que
a la que se están comunicando nuestro módem y el módem remoto. Cuanto mayor
sea el flujo de información entre nuestro ordenador y nuestro módem, más libre
estará éste para ir dando la información que recibe del exterior y mejor será el
rendimiento. Un módem de 55.600 bps tiene una velocidad de comunicación con
el ordenador de 115.200 bps (muy superior al valor nominal), quien controla y
limita estos valores de transmisión es la UART.
Se suelen oír expresiones como módem ADSL o incluso módem RDSI, aunque
esto no es cierto en estos casos, ya que estas líneas de tipo digital no necesitan
de ningún tipo de conversión de digital a analógico, y su función en este caso es
más parecida a la de una tarjeta de red que a la de un módem.
La línea RDSI, la Red Digital de Servicios Integrados (ISDN en inglés), o lo que es
lo mismo: la línea de teléfono digital. Lo que distingue a estas líneas no es el
cable, que en la mayoría de los casos es el mismo, sino el método de utilizarlo: se
utiliza la línea telefónica digitalmente en vez de analógicamente, lo cual implica
que la cantidad de información transmitible por la línea es mayor. La instalación de
una conexión a Internet por RDSI no es mucho más difícil que hacerlo con una
normal, y suelen venir en un paquete que incluye la contratación de la línea, la
tarjeta RDSI, la conexión a Internet y la instalación a domicilio de todo.
CHIPS DE MEMORIA.
En las computadoras personales actuales se utilizan aproximadamente unos 12
tipos distintos de chips de memoria. Estos chips se combinan de diferentes
maneras según el tamaño y alcance de la memoria de trabajo en concreto.
La compatibilidad con una placa de memoria dada viene determinada por las
tomas (zócalos) que hay en esa placa. Los chips simplemente se enchufan a esas
tomas, por lo que el soldador, que se utilizaba años atrás para realizar
ampliaciones de memoria, ya no es necesario.
Los distintos chips que se utilizan para la memoria de trabajo pueden dividirse en
dos grupos: chips DRAM (RAM din mica) y SIMM (Single In- line Memory Module)
o SIP (Single In- line Packages). La diferencia entre estos dos grupos es fácil de
explicar.
Mientras los chips de RAM din mica constan de elementos individuales de chips
sencillos, en los módulos SIMM o SIP varios chips RAM se agrupan en un solo
elemento. Por lo tanto, Los SIMM o SIP son simplemente un grupo de chips RAM
que se han soldado conjuntamente para formar un único componente. Mas
adelante analizaremos esta cuestión m s detalladamente.
CHIPS DE RAM DINAMICA.
Los chips de RAM din mica están situados en unas pequeñas carcasas negras
para chips con patillas que sobresalen de sus lados mayores. Estas patillas
permiten que el chip este conectado al resto del sistema. Según la capacidad del
chip éste tendrá 16, 18, o incluso 20 patillas. Los chips están disponibles en
capacidades de 64, 256 kilobytes e incluso de 1 megabits, y por lo general
contienen las inscripciones correspondientes (4164, 41256, y 411000 o 411024
respectivamente).
En los últimos tiempos se ha venido haciendo mas popular una versión especial
de chips RAM que utiliza una estructura de bit cuádruple. Estos chips tienen cuatro
veces mas capacidad de almacenamiento que un chip normal de 1 bit, y est n
disponibles en los modelos 464, 4256 y 4400.
Sin embargo, no debe preocuparse por las denominaciones de chips RAM, ya que
con un poco de práctica podrá determinar la capacidad de un chip RAM por el
numero de patillas de cada chip (los chips de 64 y 256 kilobits tienen 16, los de
464 y los de 1000 kilobits tienen 18 y los chips de bits cuádruple tienen 20 patillas)
y por los tres a cuatro últimos dig¡tos que hay inscritos en la carcasa del chip.
Este tipo de chips RAM se denominan "din micos" porque los contenidos de su
memoria deben refrescarse continuamente. Esto significa que estos chips est n
sometidos a un "ciclo de refresco" constante. Esto sucede simplemente por la
naturaleza de estos componentes, porque el elemento real de almacenamiento es
solamente el condensador, que puede estar cargado o descargado. Dado que un
elemento así puede presentar dos estados, representan exactamente el valor de
un bit. Por lo tanto, se necesita un condensador para cada bit.
Por ejemplo, un chip de un megabit, capas de almacenar exactamente 1,040,576
bits de información, necesita mas de un millón de condensadores. Sin embargo,
uno de estos condensadores pierde su carga después de un corto periodo de
tiempo. Para conservar la información almacenada en el chip durante más tiempo
del establecido, es necesario leer el estado de los condensadores del chip antes
de que se pierda su carga y seguidamente recargarlos. Esto es el mencionado
"ciclo de refresco".
No se puede acceder a la información almacenada en el chip mientras éste est
siendo refrescado. Dado que los intervalos entre cada reposición varían según los
distintos tipos de chips, puede escoger entre chips RAM más rápidos y más lentos.
El tiempo de acceso de los chips RAM vienen especificados en nanosegundos, y
por lo general oscila entre 70 y 120 nanosegundos. Contra mayor sea el tiempo de
acceso, m s lento ser el chip.
MODULOS SIP Y SIMM.
Los módulos SIP y SIMM se crearon como resultado de las aplicaciones de la
computadora que continuamente necesitaban mas memoria. Cada módulo
corresponde a una hilera completa de chips de memoria. Dado que el espacio que
ocupan estos módulos es considerablemente más pequeño que el que utilizan las
tomas convencionales DRAM, se puede instalar mas memoria en la placa
principal.
Estos módulos están disponibles en grupos de nueve chips y de tres chips; la
ordenación de tres chips parece ser la que tiene mas aceptación. Sin embargo, no
todas las placas principales son compatibles con esta tecnología. Si la placa no es
compatible con el modulo de tres chips, es posible que surjan problemas de
memoria o incluso mensajes de errores de paridad "Parity error", que indican que
la placa no soporta los módulos. Estos módulos de memoria están disponibles en
capacidades de 256k, 1 MB y 4 MB.
Los módulos SIP (Single In-line Packages) tienen una hilera de 30 patillas
pequeñas insertadas en la banda de toma correspondiente. Sin embargo, Los
SIMM (Single In-line Memory Module) utilizan una banda de contacto parecida a
las que se utilizan en las tarjetas de expansión. Por tanto, los SIMM están
insertados en conectores envueltos o tipo snap.
LOS BANCOS DE MEMORIA.
Sea cual sea el tipo de elementos de memoria que se utiliza, la memoria situada
en la placa principal de una PC se ha organizado en dos bancos de memoria
desde la generación de la PC 286. El primero se denomina "Banco 0" y el segundo
"Banco 1".
Dado que, por lo general, es posible instalar diferentes tipos de chips de memoria,
la capacidad de un banco de memoria depende del tipo de chips que utilice. Por
esta razón, las placas 286 mas antiguas pueden alcanzar dos valores máximos,
de 1 o de 4 MB de RAM, dependiendo de si se utilizan chips de 256 kilobits o
chips de 1 megabit.
Las placas principales de las PC de alta velocidad 386 y 486 contienen casi
siempre SIMM. Cuando se utilizan módulos de 4 MB, se pueden alcanzar
capacidades de memoria de 32 MB "en la placa". Esto es posible porque un banco
de memoria, por regla general, incluye cuatro tomas o zócalos, por lo tanto, un
total de ocho tomas pueden recibir SIMM. Algunas placas contienen incluso 16
tomas de este tipo, por lo cual se puede instalar hasta un máximo de 64 MB de
RAM en la placa.
COMBINACION DE DISTINTOS CHIPS DE MEMORIA.
Dentro de un mismo banco de memoria, solo se deben utilizar chips de memoria
de igual capacidad. Sin embargo, se permite el uso de chips con distintos tiempos
de acceso. Los accesos a memoria se comportar n simplemente con referencia al
chip mas débil del sistema. Aunque dentro de un banco de memoria se pueden
mezclar chips de distintos fabricantes, en ocasiones esto pudiera traer problemas.
No siempre est permitido utilizar chips con diferentes capacidades entre los
bancos de memoria de una placa principal. Para mayor información, diríjase a los
documentos que se incluyen en su placa principal.
MEMORIA EXTENDIDA Y EXPANDIDA.
Mediante la ampliación del bus de direcciones, primero a 24 y después a 32
conductos, se consiguió aumentar la franja de memoria direccionable. Así se creó
la "memoria extendida", no utilizable por el DOS y no apta para el almacenamiento
de programas. De todos modos, el DOS, a partir de su versión 4.01, incluye
algunos controladores que aportan cierta utilidad a este tipo de memoria. gracias a
ellos y al VDISK.SYS, puede instalarse un disco virtual en la memoria extendida.
Cabe también la posibilidad de instalar en la memoria extendida dispositivos de
control del disco duro o de la impresora. Pero esta forma tan práctica de liberar de
tareas a la memoria de trabajo no impedir que en la pantalla del usuario del DOS
aparezca el mensaje de "insuficient memory" (memoria insuficiente). Unicamente
ciertos productos muy selectos de software, entre ellos el LOTUS 123 versión 2.2,
consiguen utilizar la memoria extendida.
Existe una posibilidad de ampliar la memoria de trabajo para las aplicaciones DOS
y es el aprovechamiento de la ventana EMS. se trata de un sector de memoria no
utilizado y situado en el marco de los 384 KB de la memoria del sistema (controller
Memory). El principio EMS es realmente complejo, pero con un poco de fantasía
se puede asimilar. Según la EMS (especificación de memoria expandida), pueden
utilizarse todos los espacios direccionables vacíos entre 640 KB y 1 MB para
fusionar en ellos sectores de memoria procedentes de otros espacios
direccionables. La "ventana" que se consigue de esta manera muestra siempre la
parte de la memoria que se esta empleando en cada momento. La totalidad de la
memoria fusionada (hasta 32 MB) queda dividida en paginas con sus
correspondientes direcciones lógicas. Para posibilitar el resaltado casi instantáneo
de paginas de memoria adicionales, es preciso que la conexión r pida entre las
direcciones de las memorias lógica y física(ventana EMS) se produzca en un
segundo plano.
Para poder ampliar la memoria según las directrices EMS es imprescindible cargar
un determinado controlador al ponerse el sistema en funcionamiento. Los 286 y
los 8088 precisan para este fin un hardware especial dotado de Bank-switchingLogic (lógica de conmutación de bancos). Por esta razón, el controlador de
software depende también del hardware y viene siendo distribuido conjuntamente
con las placas madre con capacidad EMS o con las tarjetas de expansión de
memoria.
Pero no todas las placas madre 286 soportan la EMS. Muchas se ayudan en
tarjetas de expansión de memoria determinadas, como, por ejemplo, la IntelAvobe-Board. Los procesadores de aplicaciones 386 y 486 disponen de un
"Virtual-Address-Mode"(modo virtual de direcci¢n) que facilita la operatividad de un
sistema EMS dirigido únicamente por software. Se puede decir, por tanto, que
estas computadoras ya salen de fabrica preparadas para acogerse a la
metodología EMS. Desde el DOS 5.0 se incluye con vistas a ello un controlador
especial EMS(EMM386.EXE). También hay otros programas que, como el
386MAX o el QEMM se adaptan a la ventana EMS, a fin de incrementar el
volumen de memoria de trabajo disponible para el DOS y sus aplicaciones. Estos
programas son independientes de hardware y por ello no requieren ningún entorno
especial. De todos modos, cabe señalar que algunos de ellos puede presentar
problemas.
Desde la aparición de su versión 4.01, el DOS puede incorporar una llamada "High
Memory Area"(área de memoria alta) en los primeros 64 KB de la memoria
direccionable, cuyo volumen supera el megabyte y, desde el lanzamiento de su
versión 5.0, puede incluso descargar partes del sistema operativo residentes en
los mas altos sectores de la memoria, de modo que queden libres mas de 620 kB
de la memoria de trabajo.
Mediante el gestionador de memoria XMS conocido como HIMEM.SYS,
programas como el Windows 3.0 a modo de aplicación del DOS, pueden acceder
sin restricciones a toda la memoria existente y ponerla a disposición del resto de
las aplicaciones. Para ello el Windows 3.0 asume el control total de la memoria y
precisamente ello es causa de los problemas que plantea este asunto.
Ya va siendo hora de que DOS sea sustituido por un sistema operativo autentico,
capaz de trabajar en modo protegido y preparado para seguir el ritmo que marque
la memoria direccionable ampliada de los procesadores mas rápidos. IBM ha
logrado esto con la versión 2.0 del ya conocido OS/2.
Así ya hemos llegado al final del apartado dedicado a la memoria de trabajo. Nos
hemos extendido bastante, a fin de facilitarle una perspectiva completa de los
aspectos problemáticos relacionados con su manejo. Creemos haber resuelto, con
ello, todas las posibles dudas que pueden plantearse en torno a la conveniencia
de la ampliación de esta memoria.
La conveniencia de dicha ampliación depende, en primera instancia, del tipo de
computadora que se posea. Ampliar un 286, por ejemplo, a mas de 2 MB de RAM
nos parece poco razonable. En este caso, le convendría mas la compra de un 386,
o , por lo menos, de un 386SX.
Esta operación la reportar mas ventajas en cuanto al manejo de memoria. Por
otra parte, la ampliación de la memoria de un 386 o de un 486 que se opere bajo
el Windows resulta siempre ventajosa, ya que se agiliza su administración. Lo
ideal en estos casos son 8 MB. Si usted únicamente trabaja con el DOS y sus
aplicaciones, una ampliación de memoria no tendría mucho sentido.
Contrariamente, si lo que utiliza es el OS/2, cualquier ampliación será bienvenida,
pues cuanto mayor sea el volumen de RAM, mas rápido ser el funcionamiento del
software.
Descargar