INTRODUCCIÓN Un circuito eléctrico es una serie de elementos o componentes eléctricos, tales como resistencias, inductancias, condensadores y fuentes, o electrónicos, conectados eléctricamente entre sí con el propósito de generar, transportar o modificar señales eléctricas. En este reporte se dan a conocer aspectos fundamentales sobre el funcionamiento de un circuito, así como también conocimientos elementales referentes a la continuidad eléctrica y el voltaje. El manejo de la breadboard es necesario en el desarrollo de esta práctica, pues se utiliza en cada una de las pruebas y procesos realizados. Esta práctica es de gran utilidad porque además de comprender el funcionamiento de un circuito eléctrico, también se pone en práctica el uso y manipulación de dispositivos eléctricos básicos tales como el multímetro, la fuente, la breadboard, etc. El desarrollo sistemático y paso a paso que se le da a la guía de trabajo de la práctica, hace que cada concepto se pueda entender, con la ayuda de las tablas, esquemas y gráficos presentados en el desarrollo del trabajo. Ningún estudiante de electricidad puede pasar por alto estos conocimientos fundamentales que son la base para el desarrollo de proyectos complejos. Flujos compresibles El interés por los flujos compresibles comenzó con el desarrollo de las turbinas de vapor por el inventor británico Charles Algernon Parsons y el ingeniero sueco Carl Gustaf Patrik de Laval durante la década de 1880. En esos mecanismos se descubrió por primera vez el flujo rápido de vapor a través de tubos, y la necesidad de un diseño eficiente de turbinas llevó a una mejora del análisis de los flujos compresibles. Pero los avances modernos tuvieron que esperar al estímulo que supuso el desarrollo de la turbina de combustión y la propulsión a chorro en la década de 1930. El interés por los flujos de alta velocidad sobre superficies surgió de forma temprana en los estudios de balística, donde se necesitaba comprender el movimiento de los proyectiles. Los avances más importantes comenzaron hacia el final del siglo XIX, con Prandtl y sus discípulos, entre otros, y crecieron con la introducción de los aviones de alta velocidad y los cohetes en la II Guerra Mundial. Uno de los principios básicos del flujo compresible es que la densidad de un gas cambia cuando el gas se ve sometido a grandes cambios de velocidad y presión. Al mismo tiempo, su temperatura también cambia, lo que lleva a problemas de análisis más complejos. El comportamiento de flujo de un gas compresible depende de si la velocidad de flujo es mayor o menor que la velocidad del sonido. El sonido es la propagación de una pequeña perturbación, u onda de presión, dentro de un fluido. Para un gas, la velocidad del sonido es proporcional a la raíz cuadrada de su temperatura absoluta. La velocidad del sonido en el aire a 20 °C (293 kelvins en la escala absoluta), es de unos 344 metros por segundo. Si la velocidad de flujo es menor que la velocidad del sonido (flujo subsónico), las ondas de presión pueden transmitirse a través de todo el fluido y así adaptar el flujo que se dirige hacia un objeto. Por tanto, el flujo subsónico que se dirige hacia el ala de un avión se ajustará con cierta distancia de antelación para fluir suavemente sobre la superficie. En el flujo supersónico, las ondas de presión no pueden viajar corriente arriba para adaptar el flujo. Por ello, el aire que se dirige hacia el ala de un avión en vuelo supersónico no está preparado para la perturbación que va a causar el ala y tiene que cambiar de dirección repentinamente en la proximidad del ala, lo que conlleva una compresión intensa u onda de choque. El ruido asociado con el paso de esta onda de choque sobre los observadores situados en tierra constituye el estampido sónico de los aviones supersónicos. Frecuentemente se identifican los flujos supersónicos por su número de Mach, que es el cociente entre la velocidad de flujo y la velocidad del sonido. Por tanto, los flujos supersónicos tienen un número de Mach superior a 1. Circuito eléctrico Un circuito eléctrico tiene tres partes importantes: la fuente de energía, los conductores y la carga (esta última es la que aprovecha la energía proporcionada por la fuente de energía). Existen tres formas típicas de re[resemtar un circuito: el diagrama de bloques (Figura 1), el diagrama esquemático (figura 2) y el diagrama pictórico (figura 3), tal como se muestra a continuación: DIAGRAMA DE BLOQUES DIAGRAMA ESQUEMÁTICO DIAGRAMA PICTÓRICO Circuito eléctrico, trayecto o ruta de una corriente eléctrica. El término se utiliza principalmente para definir un trayecto continuo compuesto por conductores y dispositivos conductores, que incluye una fuente de fuerza electromotriz que transporta la corriente por el circuito. Un circuito de este tipo se denomina circuito cerrado, y aquéllos en los que el trayecto no es continuo se denominan abiertos. Un cortocircuito es un circuito en el que se efectúa una conexión directa, sin resistencia, inductancia ni capacitancia apreciables, entre los terminales de la fuente de fuerza electromotriz. Componentes de un circuito eléctrico Corriente continua y alterna: La corriente eléctrica muestra dos tipos de comportamiento diferenciado en cuanto al sentido en que recorre el circuito. De este modo, en general se distingue entre corriente continua y alterna. La primera es la que recorre el circuito siempre en idéntico sentido. La segunda es la que cambia el sentido de recorrido del circuito varias veces por segundo y presenta una intensidad determinada independientemente del sentido del recorrido del circuito. Conductores: los metales son buenos conductores eléctricos porque disponen de muchos estados cuánticos vacíos que los electrones pueden ocupar. Resistencia: Cuando una corriente eléctrica pasa por un conductor hay una fuerza que actúa para reducir o resistir el flujo. Es lo que se llama resistencia, y depende de la naturaleza y del tamaño del conductor. La unidad de resistencia es el ohmio. La pila eléctrica: las fuentes de voltaje de corriente continua reciben el nombre de pilas o baterías. Su funcionamiento se basa en la transformación de energía química en energía eléctrica mediante la inversión del proceso de la electrolisis. De un modo más preciso el concepto de batería se aplica a conjuntos de pilas iguales. Las pilas consumen poco a poco el combustible químico generando electricidad. La pila seca es la empleada comúnmente en radios, linternas, etc. Una sola pila normalmente produce poco voltaje pero varias conectadas en serie (positivo a negativo)darán un voltaje más alto. Una serie de pilas conectadas de esta manera forman una batería. Algunas baterías se conocen con el nombre de acumuladores, se han concebido de manera que se pueden “recargar” cuando una corriente eléctrica vuelve a pasar por ellas. Transformadores: 2.LEYDEOHM La corriente fluye por un circuito eléctrico siguiendo varias leyes definidas. La ley básica del flujo de la corriente es la ley de Ohm, así llamada en honor a su descubridor, el físico alemán Georg Ohm. Según la ley de Ohm, la cantidad de corriente que fluye por un circuito formado por resistencias puras es directamente proporcional a la fuerza electromotriz aplicada al circuito, e inversamente proporcional a la resistencia total del circuito. Esta ley suele expresarse mediante la fórmula I = V/R, siendo I la intensidad de corriente en amperios, V la fuerza electromotriz en voltios y R la resistencia en ohmios. La ley de Ohm se aplica a todos los circuitos eléctricos, tanto a los de corriente continua (CC) como a los de corriente alterna (CA), aunque para el análisis de circuitos complejos y circuitos de CA deben emplearse principios adicionales que incluyen inductancias y capacitancias. Un circuito en serie es aquél en que los dispositivos o elementos del circuito están dispuestos de tal manera que la totalidad de la corriente pasa a través de cada elemento sin división ni derivación en circuitos paralelos. Cuando en un circuito hay dos o más resistencias en serie, la resistencia total se calcula sumando los valores de dichas resistencias. Si las resistencias están en paralelo, el valor total de la resistencia del circuito se obtiene mediante la fórmula En un circuito en paralelo los dispositivos eléctricos, por ejemplo las lámparas incandescentes o las celdas de una batería, están dispuestos de manera que todos los polos, electrodos y terminales positivos (+) se unen en un único conductor, y todos los negativos (-) en otro, de forma que cada unidad se encuentra, en realidad, en una derivación paralela. El valor de dos resistencias iguales en paralelo es igual a la mitad del valor de las resistencias componentes y, en cada caso, el valor de las resistencias en paralelo es menor que el valor de la más pequeña de cada una de las resistencias implicadas. En los circuitos de CA, o circuitos de corrientes variables, deben considerarse otros componentes del circuito además de la resistencia. 3.LEYESDEKIRCHHOFF Si un circuito tiene un número de derivaciones interconectadas, es necesario aplicar otras dos leyes para obtener el flujo de corriente que recorre las distintas derivaciones. Estas leyes, descubiertas por el físico alemán Gustav Robert Kirchhoff, son conocidas como las leyes de Kirchhoff. La primera, la ley de los nudos, enuncia que en cualquier unión en un circuito a través del cual fluye una corriente constante, la suma de las intensidades que llegan a un nudo es igual a la suma de las intensidades que salen del mismo. La segunda ley, la ley de las mallas afirma que, comenzando por cualquier punto de una red y siguiendo cualquier trayecto cerrado de vuelta al punto inicial, la suma neta de las fuerzas electromotrices halladas será igual a la suma neta de los productos de las resistencias halladas y de las intensidades que fluyen a través de ellas. Esta segunda ley es sencillamente una ampliación de la ley de Ohm. 4.IMPEDANCIA La aplicación de la ley de Ohm a los circuitos en los que existe una corriente alterna se complica por el hecho de que siempre estarán presentes la capacitancia y la inductancia. La inductancia hace que el valor máximo de una corriente alterna sea menor que el valor máximo de la tensión; la capacitancia hace que el valor máximo de la tensión sea menor que el valor máximo de la corriente. La capacitancia y la inductancia inhiben el flujo de corriente alterna y deben tomarse en cuenta al calcularlo. La intensidad de corriente en los circuitos de CA puede determinarse gráficamente mediante vectores o con la ecuación algebraica en la que L es la inductancia, C la capacitancia y f la frecuencia de la corriente. El valor obtenido en el denominador de la fracción se denomina impedancia del circuito y suele representarse por la letra Z. Por consiguiente, la ley de Ohm para los circuitos integrados suele expresarse por la ecuación sencilla I = ð / Z. Circuito impreso, circuito eléctrico fabricado depositando material conductor sobre la superficie de una base aislante denominada placa de circuito impreso (PCB). En este tipo de circuitos, el cableado usado en circuitos tradicionales se sustituye por una red de finas líneas conductoras, impresas y unidas sobre el PCB. Pueden introducirse dentro del circuito otros elementos, como transistores, resistencias, condensadores e inductores, mediante la impresión o el montaje de estos sobre la placa, para modificar el flujo de corriente. Véase Electricidad; Electrónica; Aislante; Microprocesador. Los circuitos impresos fueron desarrollados durante la II Guerra Mundial, para su uso en detectores de proximidad para proyectiles de artillería. Desde entonces los circuitos impresos se han utilizado en aparatos de comunicaciones, como receptores de televisión y radio, radares, audífonos, computadoras e instrumentos de misiles dirigidos y aeronaves. Circuito integrado, pequeño circuito electrónico utilizado para realizar una función electrónica específica, como la amplificación. Se combina por lo general con otros componentes para formar un sistema más complejo y se fabrica mediante la difusión de impurezas en silicio monocristalino, que sirve como material semiconductor, o mediante la soldadura del silicio con un haz de flujo de electrones. Varios cientos de circuitos integrados idénticos se fabrican a la vez sobre una oblea de pocos centímetros de diámetro. Esta oblea a continuación se corta en circuitos integrados individuales denominados chips. En la integración a gran escala (LSI, acrónimo de Large-Scale Integration) se combinan aproximadamente 5.000 elementos, como resistencias y transistores, en un cuadrado de silicio que mide aproximadamente 1,3 cm de lado. Cientos de estos circuitos integrados pueden colocarse en una oblea de silicio de 8 a 15 cm de diámetro. La integración a mayor escala puede producir un chip de silicio con millones de elementos. Los elementos individuales de un chip se interconectan con películas finas de metal o de material semiconductor aisladas del resto del circuito por capas dieléctricas. Para interconectarlos con otros circuitos o componentes, los chips se montan en cápsulas que contienen conductores eléctricos externos. De esta forma se facilita su inserción en placas. Durante los últimos años la capacidad funcional de los circuitos integrados ha ido en aumento de forma constante, y el coste de las funciones que realizan ha disminuido igualmente. Esto ha producido cambios revolucionarios en la fabricación de equipamientos electrónicos, que han ganado enormemente en capacidad funcional y en fiabilidad. También se ha conseguido reducir el tamaño de los equipos y disminuir su complejidad física y su consumo de energía. La tecnología de los ordenadores o computadoras se ha beneficiado especialmente de todo ello. Las funciones lógicas y aritméticas de una computadora pequeña pueden realizarse en la actualidad mediante un único chip con integración a escala muy grande (VLSI, acrónimo de Very Large Scale Integration) llamado microprocesador, y todas las funciones lógicas, aritméticas y de memoria de una computadora, pueden almacenarse en una única placa de circuito impreso, o incluso en un único chip. Un dispositivo así se denomina microordenador o microcomputadora. En electrónica de consumo, los circuitos integrados han hecho posible el desarrollo de muchos nuevos productos, como computadoras y calculadoras personales, relojes digitales y videojuegos. Se han utilizado también para mejorar y rebajar el coste de muchos productos existentes, como los televisores, los receptores de radio y los equipos de alta fidelidad. Su uso está muy extendido en la industria, la medicina, el control de tráfico (tanto aéreo como terrestre), control medioambiental y comunicaciones. Placa de circuito impreso Placa de circuito impreso, en informática, placa lisa de material aislante, por ejemplo plástico o fibra de vidrio, sobre la que se montan chips y otros componentes electrónicos, generalmente en orificios previamente taladrados para ello. Los componentes de una placa de circuito impreso, y más concretamente los orificios para ellos, están conectados eléctricamente mediante pistas de metal conductor definidas con anterioridad e impresas sobre la superficie de la placa. Las puntas metálicas que sobresalen de los componentes electrónicos se sueldan a las pistas metálicas conductoras formando las conexiones. Las placas de circuito impreso deben tomarse por los bordes y protegerse de la suciedad y la electricidad estática para evitar que se dañen. Véase Circuito integrado. Electrónica Electrónica, campo de la ingeniería y de la física aplicada relativo al diseño y aplicación de dispositivos, por lo general circuitos electrónicos, cuyo funcionamiento depende del flujo de electrones para la generación, transmisión, recepción y almacenamiento de información. Esta información puede consistir en voz o música (señales de voz) en un receptor de radio, en una imagen en una pantalla de televisión, o en números u otros datos en un ordenador o computadora. Los circuitos electrónicos ofrecen diferentes funciones para procesar esta información, incluyendo la amplificación de señales débiles hasta un nivel utilizable; la generación de ondas de radio; la extracción de información, como por ejemplo la recuperación de la señal de sonido de una onda de radio (demodulación); el control, como en el caso de la superposición de una señal de sonido a ondas de radio (modulación), y operaciones lógicas, como los procesos electrónicos que tienen lugar en las computadoras. 2.ANTECEDENTES HISTÓRICOS La introducción de los tubos de vacío a comienzos del siglo XX propició el rápido crecimiento de la electrónica moderna. Con estos dispositivos se hizo posible la manipulación de señales, algo que no podía realizarse en los antiguos circuitos telegráficos y telefónicos, ni con los primeros transmisores que utilizaban chispas de alta tensión para generar ondas de radio. Por ejemplo, con los tubos de vacío se pudieron amplificar las señales de radio y de sonido débiles, y además podían superponerse señales de sonido a las ondas de radio. El desarrollo de una amplia variedad de tubos, diseñados para funciones especializadas, posibilitó el rápido avance de la tecnología de comunicación radial antes de la II Guerra Mundial, y el desarrollo de las primeras computadoras, durante la guerra y poco después de ella. Hoy día, el transistor, inventado en 1948, ha reemplazado casi completamente al tubo de vacío en la mayoría de sus aplicaciones. Al incorporar un conjunto de materiales semiconductores y contactos eléctricos, el transistor permite las mismas funciones que el tubo de vacío, pero con un coste, peso y potencia más bajos, y una mayor fiabilidad. Los progresos subsiguientes en la tecnología de semiconductores, atribuible en parte a la intensidad de las investigaciones asociadas con la iniciativa de exploración del espacio, llevó al desarrollo, en la década de 1970, del circuito integrado. Estos dispositivos pueden contener centenares de miles de transistores en un pequeño trozo de material, permitiendo la construcción de circuitos electrónicos complejos, como los de los microordenadores o microcomputadoras, equipos de sonido y vídeo, y satélites de comunicaciones. 3.COMPONENTES ELECTRÓNICOS Los circuitos electrónicos constan de componentes electrónicos interconectados. Estos componentes se clasifican en dos categorías: activos o pasivos. Entre los pasivos se incluyen los reóstatos, los condensadores y los inductores. Los considerados activos incluyen las baterías (o pilas), los generadores, los tubos de vacío y los transistores. 3.1.Tubos de vacío Un tubo de vacío consiste en una cápsula de vidrio de la que se ha extraído el aire, y que lleva en su interior varios electrodos metálicos. Un tubo sencillo de dos elementos (diodo) está formado por un cátodo y un ánodo, este último conectado al terminal positivo de una fuente de alimentación. El cátodo (un pequeño tubo metálico que se calienta mediante un filamento) libera electrones que migran hacia él (un cilindro metálico en torno al cátodo, también llamado placa). Si se aplica una tensión alterna al ánodo, los electrones sólo fluirán hacia el ánodo durante el semiciclo positivo; durante el ciclo negativo de la tensión alterna, el ánodo repele los electrones, impidiendo que cualquier corriente pase a través del tubo. Los diodos conectados de tal manera que sólo permiten los semiciclos positivos de una corriente alterna (c.a.) se denominan tubos rectificadores y se emplean en la conversión de corriente alterna a corriente continua (c.c.) (véase Electricidad). Al insertar una rejilla, formada por un hilo metálico en espiral, entre el cátodo y el ánodo, y aplicando una tensión negativa a dicha rejilla, es posible controlar el flujo de electrones. Si la rejilla es negativa, los repele y sólo una pequeña fracción de los electrones emitidos por el cátodo puede llegar al ánodo. Este tipo de tubo, denominado tríodo, se puede utilizar como amplificador. Las pequeñas variaciones de la tensión que se producen en la rejilla, como las generadas por una señal de radio o de sonido, pueden provocar grandes variaciones en el flujo de electrones desde el cátodo hacia el ánodo y, en consecuencia, en el sistema de circuitos conectado al ánodo. 3.2.Transistores Los transistores se componen de semiconductores. Se trata de materiales, como el silicio o el germanio, dopados (es decir, se les han incrustado pequeñas cantidades de materias extrañas), de manera que se produce un exceso o una carencia de electrones libres. En el primer caso, se dice que el semiconductor es del tipo n, y en el segundo, que es del tipo p. Combinando materiales del tipo n y del tipo p se puede producir un diodo. Cuando éste se conecta a una batería de manera tal que el material tipo p es positivo y el material tipo n es negativo, los electrones son repelidos desde el terminal negativo de la batería y pasan, sin ningún obstáculo, a la región p, que carece de electrones. Con la batería invertida, los electrones que llegan al material p pueden pasar sólo con muchas dificultades hacia el material n, que ya está lleno de electrones libres, en cuyo caso la corriente es prácticamente cero. El transistor bipolar fue inventado en 1948 para sustituir al tubo de vacío triodo. Está formado por tres capas de material dopado, que forman dos uniones pn (bipolares) con configuraciones pnp o npn. Una unión está conectada a la batería para permitir el flujo de corriente (polarización negativa frontal, o polarización directa), y la otra está conectada a una batería en sentido contrario (polarización inversa). Si se varía la corriente en la unión de polarización directa mediante la adición de una señal, la corriente de la unión de polarización inversa del transistor variará en consecuencia. El principio se puede utilizar para construir amplificadores en los que una pequeña señal aplicada a la unión de polarización directa provocará un gran cambio en la corriente de la unión de polarización inversa. Otro tipo de transistor es el de efecto campo (FET, acrónimo inglés de Field-Effect Transistor), que funciona sobre la base del principio de repulsión o de atracción de cargas debido a la superposición de un campo eléctrico. La amplificación de la corriente se consigue de modo similar al empleado en el control de rejilla de un tubo de vacío. Los transistores de efecto campo funcionan de forma más eficaz que los bipolares, ya que es posible controlar una señal grande con una cantidad de energía muy pequeña. 3.3.Circuitosintegrados La mayoría de los circuitos integrados son pequeños trozos, o chips, de silicio, de entre 2 y 4 mm2, sobre los que se fabrican los transistores. La fotolitografía permite al diseñador crear centenares de miles de transistores en un solo chip situando de forma adecuada las numerosas regiones tipo n y p. Durante la fabricación, estas regiones son interconectadas mediante conductores minúsculos, a fin de producir circuitos especializados complejos. Estos circuitos integrados son llamados monolíticos por estar fabricados sobre un único cristal de silicio. Los chips requieren mucho menos espacio y potencia, y su fabricación es más barata que la de un circuito equivalente compuesto por transistores individuales. 3.4. Reóstatos Al conectar una batería a un material conductor, una determinada cantidad de corriente fluirá a través de dicho material. Esta corriente depende de la tensión de la batería, de las dimensiones de la muestra y de la conductividad del propio material. Los reóstatos de resistencia conocida se emplean para controlar la corriente en los circuitos electrónicos. Se elaboran con mezclas de carbono, láminas metálicas o hilo de resistencia, y disponen de dos cables de conexión. Los reóstatos variables, con un brazo de contacto deslizante y ajustable, se suelen utilizar para controlar el volumen de aparatos de radio y televisión. 3.5. Condensadores Los condensadores están formados por dos placas metálicas separadas por un material aislante. Si se conecta una batería a ambas placas, durante un breve tiempo fluirá una corriente eléctrica que se acumulará en cada una de ellas. Si se desconecta la batería, el condensador conserva la carga y la tensión asociada a la misma. Las tensiones rápidamente cambiantes, como las provocadas por una señal de sonido o de radio, generan mayores flujos de corriente hacia y desde las placas; entonces, el condensador actúa como conductor de la corriente alterna. Este efecto se puede utilizar, por ejemplo, para separar una señal de sonido o de radio de una corriente continua, a fin de conectar la salida de una fase de amplificación a la entrada de la siguiente. 3.6. Inductores Los inductores consisten en un hilo conductor enrollado en forma de bobina. Al pasar una corriente a través de la bobina, alrededor de la misma se crea un campo magnético que tiende a oponerse a los cambios bruscos de la intensidad de la corriente (véase Inducción). Al igual que un condensador, un inductor se puede usar para diferenciar entre señales rápida y lentamente cambiantes. Al utilizar un inductor conjuntamente con un condensador, la tensión del inductor alcanza un valor máximo a una frecuencia específica que depende de la capacitancia y de la inductancia. Este principio se emplea en los receptores de radio al seleccionar una frecuencia específica mediante un condensador variable. 3.7. Dispositivos de detección y transductores La medición de magnitudes mecánicas, térmicas, eléctricas y químicas se realiza empleando dispositivos denominados sensores y transductores. El sensor es sensible a los cambios de la magnitud a medir, como una temperatura, una posición o una concentración química. El transductor convierte estas mediciones en señales eléctricas, que pueden alimentar a instrumentos de lectura, registro o control de las magnitudes medidas. Los sensores y transductores pueden funcionar en ubicaciones alejadas del observador, así como en entornos inadecuados o impracticables para los seres humanos. Algunos dispositivos actúan de forma simultánea como sensor y transductor. Un termopar consta de dos uniones de diferentes metales que generan una pequeña tensión que depende del diferencial térmico entre las uniones (véase Termoelectricidad). El termistor es un reóstato especial, cuya resistencia varía según la temperatura. Un reóstato variable puede convertir el movimiento mecánico en señal eléctrica. Para medir distancias se emplean condensadores de diseño especial, y para detectar la luz se utilizan fotocélulas (véase Célula fotoeléctrica). Para medir velocidades, aceleraciones o flujos de líquidos se recurre a otro tipo de dispositivos. En la mayoría de los casos, la señal eléctrica es débil y debe ser amplificada por un circuito electrónico. 4. CIRCUITOS DE ALIMENTACIÓN ELÉCTRICA La mayoría de los equipos electrónicos requieren tensiones de c.c. para su funcionamiento. Estas tensiones pueden ser suministradas por baterías o por fuentes de alimentación internas que convierten la corriente alterna, que se puede obtener de la red eléctrica que llega a cada vivienda, en tensiones reguladas de c.c. El primer elemento de una fuente de alimentación de c.c. interna es el transformador, que eleva o disminuye la tensión de entrada a un nivel adecuado para el funcionamiento del equipo. La función secundaria del transformador es servir como aislamiento de masa (conexión a tierra) eléctrica del dispositivo a fin de reducir posibles peligros de electrocución. A continuación del transformador se sitúa un rectificador, que suele ser un diodo. En el pasado se utilizaban diodos de vacío y una amplia variedad de diferentes materiales (cristales de germanio o sulfato de cadmio) en los rectificadores de baja potencia empleados en los equipos electrónicos. En la actualidad se emplean casi exclusivamente rectificadores de silicio debido a su bajo coste y alta fiabilidad. Las fluctuaciones y ondulaciones superpuestas a la tensión de c.c. rectificada (percibidas como un zumbido en los amplificadores de sonido defectuosos) pueden filtrarse mediante un condensador. Cuanto más grande sea el condensador, menor será el nivel de fluctuación de la tensión. Es posible alcanzar un control más exacto sobre los niveles y fluctuaciones de tensión mediante un regulador de tensión, que también consigue que las tensiones internas sean independientes de las fluctuaciones que se puedan encontrar en un artefacto eléctrico. Un sencillo regulador de tensión que se utiliza a menudo es el diodo de Zener, formado por un diodo de unión pn de estado sólido que actúa como aislante hasta una tensión predeterminada. Por encima de dicha tensión, se convierte en un conductor que deriva los excesos de tensión. Por lo general, los reguladores de tensión más sofisticados se construyen como circuitos integrados. 5.CIRCUITOS AMPLIFICADORES Los amplificadores electrónicos se utilizan sobre todo para aumentar la tensión, la corriente o la potencia de una señal. Los amplificadores lineales incrementan la señal sin distorsionarla (o distorsionándola mínimamente), de manera que la salida es proporcional a la entrada. Los amplificadores no lineales permiten generar un cambio considerable en la forma de onda de la señal. Los amplificadores lineales se utilizan para señales de sonido y vídeo, mientras que los no lineales se emplean en osciladores, dispositivos electrónicos de alimentación, moduladores, mezcladores, circuitos lógicos y demás aplicaciones en las que se requiere una reducción de la amplitud. Aunque los tubos de vacío tuvieron gran importancia en los amplificadores, hoy día se suelen utilizar circuitos de transistores discretos o circuitos integrados. 5.1. Amplificadores de sonido Los amplificadores de sonido, de uso común en radios, televisiones y grabadoras de cintas, suelen funcionar a frecuencias inferiores a los 20 kilohercios (1 kHz = 1.000 ciclos por segundo). Amplifican la señal eléctrica que, a continuación, se convierte en sonido con un altavoz. Los amplificadores operativos, incorporados en circuitos integrados y formados por amplificadores lineales multifásicos acoplados a la corriente continua, son muy populares como amplificadores de sonido. 5.2. Amplificadores de vídeo Los amplificadores de vídeo se utilizan principalmente para señales con un rango de frecuencias de hasta 6 megahercios (1 MHz = 1 millón de ciclos por segundo). La señal generada por el amplificador se convierte en la información visual que aparece en la pantalla de televisión, y la amplitud de señal regula el brillo de los puntos que forman la imagen. Para realizar esta función, un amplificador de vídeo debe funcionar en una banda ancha y amplificar de igual manera todas las señales, con baja distorsión. Véase Grabación de vídeo. 5.3. Amplificadores de radiofrecuencia Estos amplificadores aumentan el nivel de señal de los sistemas de comunicaciones de radio o televisión. Por lo general, sus frecuencias van desde 100 kHz hasta 1 gigahercio (1 GHz = 1.000 millones de ciclos por segundo), y pueden llegar incluso al rango de frecuencias de microondas. 6.OSCILADORES Los osciladores constan de un amplificador y de algún tipo de retroalimentación: la señal de salida se reconduce a la entrada del amplificador. Los elementos determinantes de la frecuencia pueden ser un circuito de inductancia-capacitancia sintonizado o un cristal vibrador. Los osciladores controlados por cristal ofrecen mayor precisión y estabilidad. Los osciladores se emplean para producir señales de sonido y de radio con una amplia variedad de usos. Por ejemplo, los osciladores sencillos de radiofrecuencia se emplean en los teléfonos modernos de botones para transmitir datos a la estación telefónica central al marcar un número. Los tonos de sonido generados por los osciladores también se pueden encontrar en relojes despertadores, radios, instrumentos electrónicos, computadoras y sistemas de alarma. Los osciladores de alta frecuencia se emplean en equipos de comunicaciones para controlar las funciones de sintonización y detección de señales. Las emisoras de radio y de televisión utilizan osciladores de alta frecuencia y de gran precisión para generar las frecuencias de transmisión. 7. CIRCUITOS DE CONMUTACIÓN Y TEMPORIZACIÓN Los circuitos de conmutación y temporización, o circuitos lógicos, forman la base de cualquier dispositivo en el que se tengan que seleccionar o combinar señales de manera controlada. Entre los campos de aplicación de estos circuitos se pueden mencionar la conmutación telefónica, las transmisiones por satélite y el funcionamiento de las computadoras digitales. La lógica digital es un proceso racional para adoptar sencillas decisiones de “verdadero” o “falso” basadas en las reglas del álgebra de Boole. Verdadero puede estar representado por un 1, y falso por un 0, y en los circuitos lógicos estos numerales aparecen como señales de dos tensiones diferentes. Los circuitos lógicos se utilizan para adoptar decisiones específicas de “verdadero-falso” sobre la base de la presencia de múltiples señales “verdadero-falso” en las entradas. Las señales se pueden generar por conmutadores mecánicos o por transductores de estado sólido. La señal de entrada, una vez aceptada y acondicionada (para eliminar las señales eléctricas indeseadas, o ruidos), es procesada por los circuitos lógicos digitales. Las diversas familias de dispositivos lógicos digitales, por lo general circuitos integrados, ejecutan una variedad de funciones lógicas a través de las llamadas puertas lógicas, como las puertas OR, AND y NOT y combinaciones de las mismas (como NOR, que incluye a OR y a NOT). Otra familia lógica muy utilizada es la lógica transistor-transistor. También se emplea la lógica de semiconductor complementario de óxido metálico, que ejecuta funciones similares a niveles de potencia muy bajos pero a velocidades de funcionamiento ligeramente inferiores. Existen también muchas otras variedades de circuitos lógicos, incluyendo la hoy obsoleta lógica reóstato-transistor y la lógica de acoplamiento por emisor, utilizada para sistemas de muy altas velocidades. Los bloques elementales de un dispositivo lógico se denominan puertas lógicas digitales. Una puerta Y (AND) tiene dos o más entradas y una única salida. La salida de una puerta Y es verdadera sólo si todas las entradas son verdaderas. Una puerta O (OR) tiene dos o más entradas y una sola salida. La salida de una puerta O es verdadera si cualquiera de las entradas es verdadera, y es falsa si todas las entradas son falsas. Una puerta INVERSORA (INVERTER) tiene una única entrada y una única salida, y puede convertir una señal verdadera en falsa, efectuando de esta manera la función negación (NOT). A partir de las puertas elementales se pueden construir circuitos lógicos más complicados, entre los que cabe mencionar los circuitos biestables (también llamados flip-flops, que son interruptores binarios), contadores, comparadores, sumadores, y combinaciones más complejas. En general, para ejecutar una determinada función es necesario conectar grandes cantidades de elementos lógicos en circuitos complejos. En algunos casos se utilizan microprocesadores para efectuar muchas de las funciones de conmutación y temporización de los elementos lógicos individuales. Los procesadores están específicamente programados con instrucciones individuales para ejecutar una determinada tarea o tareas. Una de las ventajas de los microprocesadores es que permiten realizar diferentes funciones lógicas, dependiendo de las instrucciones de programación almacenadas. La desventaja de los microprocesadores es que normalmente funcionan de manera secuencial, lo que podría resultar demasiado lento para algunas aplicaciones. En tales casos se emplean circuitos lógicos especialmente diseñados. 8. AVANCES RECIENTES El desarrollo de los circuitos integrados ha revolucionado los campos de las comunicaciones, la gestión de la información y la informática. Los circuitos integrados han permitido reducir el tamaño de los dispositivos con el consiguiente descenso de los costes de fabricación y de mantenimiento de los sistemas. Al mismo tiempo, ofrecen mayor velocidad y fiabilidad. Los relojes digitales, las computadoras portátiles y los juegos electrónicos son sistemas basados en microprocesadores. Otro avance importante es la digitalización de las señales de sonido, proceso en el cual la frecuencia y la amplitud de una señal de sonido se codifica digitalmente mediante técnicas de muestreo adecuadas, es decir, técnicas para medir la amplitud de la señal a intervalos muy cortos. La música grabada de forma digital, como la de los discos compactos, se caracteriza por una fidelidad que no era posible alcanzar con los métodos de grabación directa. La electrónica médica ha progresado desde la tomografía axial computerizada (TAC) hasta llegar a sistemas que pueden diferenciar aún más los órganos del cuerpo humano. Se han desarrollado asimismo dispositivos que permiten ver los vasos sanguíneos y el sistema respiratorio. También la alta definición promete sustituir a numerosos procesos fotográficos al eliminar la necesidad de utilizar plata. La investigación actual dirigida a aumentar la velocidad y capacidad de las computadoras se centra sobre todo en la mejora de la tecnología de los circuitos integrados y en el desarrollo de componentes de conmutación aún más rápidos. Se han construido circuitos integrados a gran escala que contienen varios millones de componentes en un solo chip. Se han llegado a fabricar computadoras que alcanzan altísimas velocidades en las cuales los semiconductores son reemplazados por circuitos superconductores que utilizan las uniones de Josephson (véase Efecto Josephson) y que funcionan a temperaturas próximas al cero absoluto. Partes internas del cpu La unidad central de proceso cpu en inglés CPU ó simplemente procesador. Es el componente en una computadora digital que interpreta las instrucciones y procesa los datos contenidos en los programas de computadora. Los CPU proporcionan la característica fundamental de la computadora digital, la programabilidad, y son uno de los componentes necesarios encontrados en los ordenadores o computadores de cualquier tiempo, junto con el almacenamiento primario y las facilidades de entrada/salida. Es conocido como microprocesador el CPU que es manufacturado con circuitos integrados. Desde mediados de los años 1970, los microprocesadores de un solo chip han reemplazado casi totalmente todos los otros tipos de CPU, y hoy en día, el término "CPU" es aplicado usualmente a algún tipo de microprocesador. La expresión "unidad central de proceso" es, en términos generales, una descripción de una cierta clase de máquinas de lógica que pueden ejecutar complejos programas de computadora. Esta amplia definición puede fácilmente ser aplicada a muchos de los primeros computadoras que existieron mucho antes que el término "CPU" estuviera en amplio uso. Sin embargo, el término sí mismo y su acrónimo han estado en uso en la industria del computadora por lo menos desde el principio de los años 1960 . La forma, el diseño y la implementación de los CPU ha cambiado dramáticamente desde los primeros ejemplos, pero su operación fundamental ha permanecido bastante similar. Los primeros CPU fueron diseñados a la medida como parte de una computadora más grande, generalmente una computadora único en su especie. Sin embargo, este costoso método de diseñar los CPU a la medida, para una aplicación particular, ha desaparecido en gran parte y se ha sustituido por el desarrollo de clases de procesadores baratos y estandarizados adaptados para uno o muchos propósitos. Esta tendencia de estandarización comenzó generalmente en la era de los transistores discretos, ordenadores centrales, y microordenadores, y fue acelerada rápidamente con la popularización del circuito integrado (IC), éste ha permitido que sean diseñados y fabricados CPU más complejos en espacios pequeños (en la orden de milímetros). Tanto la miniaturización como la estandarización de los CPU han aumentado la presencia de estos dispositivos digitales en la vida moderna mucho más allá de las aplicaciones limitadas de máquinas de computación dedicadas. Los microprocesadores modernos aparecen en todo, desde automóviles, televisores, neveras, calculadoras, aviones, hasta teléfonos móviles o celulares, juguetes, entre otros. CPU de transistores y de circuitos integrados discretos La complejidad del diseño de los CPU se incrementó a medida que varias tecnologías facilitaron la construcción de dispositivos electrónicos más pequeños y confiables. La primera de esas mejoras vino con el advenimiento del transistor. Los CPU transistorizados durante los años 1950 y los años 1960 no tuvieron que ser construidos con elementos de conmutación abultados, no fiables, y frágiles, como los tubos de vacío y los relés eléctricos. Con esta mejora, fueron construidos CPUs más complejos y más confiables sobre una o varias tarjetas de circuito impreso que contenían componentes discretos (individuales). Durante este período, ganó popularidad un método de fabricar muchos transistores en un espacio compacto. El circuito integrado (IC) permitió que una gran cantidad de transistores fueran fabricados en una simple oblea basada en semiconductor o "chip". Al principio, solamente circuitos digitales muy básicos, no especializados, como las puertas NOR fueron miniaturizados en ICs. Los CPU basadas en estos IC de "bloques de construcción" generalmente son referidos como dispositivos de pequeña escala de integración "small-scale integration" (SSI). Los circuitos integrados SSI, como los usados en el computador guía del Apollo (Apollo Guidance Computer), usualmente contenían transistores que se contaban en números de múltiplos de diez. Construir un CPU completo usando ICs SSI requería miles de chips individuales, pero todavía consumía mucho menos espacio y energía que diseños anteriores de transistores discretos. A medida que la tecnología microelectrónica avanzó, en los IC fue colocado un número creciente de transistores, disminuyendo así la cantidad de ICs individuales necesarios para un CPU completo. Los circuitos integrados MSI y el LSI (de mediana y gran escala de integración) aumentaron el número de transistores a cientos, y luego a miles. En 1964, IBM introducido su arquitectura de computador System/360, que fue usada en una serie de computadores que podían correr los mismos programas con velocidades y desempeños diferentes. Esto fue significativo en un tiempo en que la mayoría de las computadoras electrónicas eran incompatibles una con la otra, incluso las hechas por el mismo fabricante. Para facilitar esta mejora, IBM utilizó el concepto de microprograma, a menudo llamado "microcódigo", que todavía ve un uso extenso en los CPU modernos . La arquitectura System/360 era tan popular que dominó el mercado del mainframe por las siguientes décadas y dejó una herencia que todavía es continuada por computadores modernos similares como el IBM zSeries. En el mismo año de 1964, Digital Equipment Corporation (DEC) introdujo otro computador influyente dirigido a los mercados científicos y de investigación, el PDP-8. DEC introduciría más adelante la extremadamente popular línea del PDP-11, que originalmente fue construido con ICs SSI pero eventualmente fue implementado con componentes LSI cuando llegaron a ser prácticos. En fuerte contraste con sus precursores hechos con tecnología SSI y MSI, la primera implementación LSI del PDP-11 contuvo un CPU integrado por solamente cuatro circuitos integrados LSI . Los computadores basados en transistores tenían varias ventajas distintas sobre sus predecesores. Aparte de facilitar una creciente confiabilidad y un más bajo consumo de energía, los transistores también permitían al CPU operar a velocidades mucho más altas debido al corto tiempo de conmutación de un transistor en comparación a un tubo o relé. Gracias tanto a la creciente confiabilidad como a la dramáticamente incrementada velocidad de los elementos de conmutación que por este tiempo eran casi exclusivamente transistores, fueron obtenidas frecuencias de reloj del CPU de decenas de megahertz. Además, mientras que los CPU de transistores discretos y circuitos integrados estaban en fuerte uso, comenzaron a aparecer los nuevos diseños de alto rendimiento como procesadores vectoriales SIMD (Single Instruction Multiple Data) (Simple Instrucción Múltiples Datos). Estos tempranos diseños experimentales dieron lugar más adelante a la era de los superordenadores o supercomputadores especializados, como los hechos por Cray Inc. El microprocesador Historia Han pasado muchos años desde que Intel lanzara al mercado su primer microprocesador el 4004, convirtiéndose en la compañía pionera en la fabricación de estos productos y líder en el sector con casi la totalidad del mercado. Aquel 4004 presentado en el mercado el día 15 de noviembre de 1971, tenía unas características únicas para la época: la velocidad del reloj sobrepasaba los 100 Khz., tenía un ancho de bus de 4 bits y podía manejar un máximo de 640 bytes de memoria. Poco tiempo después, el 1 de abril de 1972, Intel lanzaba el 8008, una versión mejorada del 4004. Contaba con un bus de 8 bits y una memoria de 16 Kb. El número de transistores era de 3500, casi el doble que el anterior. Dos años después se anunciaba el primer ordenador personal, con una velocidad de 2 MHz. y una memoria de 64 Kb, se multiplicaba por 10 el rendimiento anterior. Pero el ordenador personal no fue tal hasta la llegada en 1978 de IBM, con el procesador 8086, con un bus de 16 bits, velocidades de 5,8 y 10 MHz, 29000 transistores usando tecnología de 3 micras y un máximo de 1Mb de memoria direccionable. El siguiente modelo, el 8088, lanzado un año después, era exactamente igual excepto que tenía un bus de 8 bits en lugar de 16, lo que lo hacía más barato y llamativo en el mercado. El 1 de febrero de 1982, Intel lanzaba el 80286, con un bus de 16 bits, 134000 transistores usando tecnología de 1.5 micras, un máximo de memoria direccionable de 16 Mb y unas velocidades de 8, 10 y 12 MHz. Suponía el primer ordenador que no fabricaba IBM en exclusiva, sino que otras muchas empresas decidieron fabricar sus propias máquinas. 1985 se convierte en un año clave para la historia de los microprocesadores. El 17 de octubre Intel anuncia la aparición del procesador 80386DX con una arquitectura de 32 bits, 275000 transistores, más de 100 veces los que tenía el 4004, la velocidad llegaba hasta los 33 MHz. y era capaz de direccionar 4 Gb (tamaño que todavía no ha sido superado por otro procesador de ámbito doméstico). En 1988 aparece el 80386SX, que sacrifica el bus de datos, para dejarlo a un menor coste. Estos procesadores aparecieron con la explosión del entorno gráfico Windows, desarrollado unos años antes por Microsoft, que permitió a personas de cualquier condición poder manejar un ordenador con unos conocimientos mínimos de informática. La revolución continuó, y el 10 de abril de 1989 aparecía el Intel 80486, de nuevo con tecnología 32 bits, pero con la incorporación del caché de nivel 1 en el propio chip, que aceleraba la transferencia de datos entre este caché y el procesador, y la aparición del coprocesador matemático integrado en el procesador, dejando de ser una opción como en los 80386. Se sobrepasaba por primera vez el millón de transistores usando tecnología de 1 micra (en los modelos a 50 MHz. se usó de 0.8 micras), lo que supuso pasar de realizar tareas complicadas en MS-DOS a mover el cursor y pinchar en la opción deseada. Dos años más tarde Intel lanzó el 80486SX, idéntico al 80846DX pero sin el coprocesador matemático, lo que reducía notablemente su coste en el mercado. Sin embargo Intel anunció rápidamente la salida de un procesador que multiplicaría por 5 el rendimiento del 80486, se trataba del Pentium. Estos procesadores fueron los primeros a los que Intel dotó de un nombre dejando atrás la nomenclatura numérica. La velocidad de estos procesadores iba de los 60 a los 200 MHz. con una arquitectura de 32 bits y una tecnología de 0.8 micras. Pronto otras compañías comenzaron a hacer software diseñado para Pentium, como el sistema operativo Windows 95, que aunque funciona en ordenadores con un 80486, no les saca su máximo rendimiento. A estas alturas le surgió a Intel la primera competencia en el terreno de los procesadores, el K5 de AMD, con un rendimiento similar al del Pentium pero con un peor trato en los datos de coma flotante. No supuso una pérdida de ventas para Intel, pero fue el primer paso de la guerra de procesadores que vivimos hoy. El 27 de marzo de 1995, aparece el Pentium Pro, destinado a servidores de red y estaciones de trabajo. Poseía una arquitectura de 64 bits y usaba tecnología de 0.32 micras para poder incluir cinco millones y medio de transistores. La evolución continuó en los procesadores Intel y surgió el Pentium II con unas velocidades iniciales de 233 y 266 MHz. Pero no hay que olvidar a AMD, que para ofrecer la competencia al Pentium II sacó su gama de K6 (K6, II y III), algunos de los cuales ofrecían un mayor rendimiento que los de Intel. Actualmente hay el Pentium III, con unas velocidades que llegan hasta 1 GHz, por el momento, y estamos a la espera del Pentium 4. AMD se ha consolidado como la competencia de Intel arrebatándole parte del mercado con el Athlon K7, que ofrece mejor rendimiento que los Pentium a la misma velocidad. Esto ha hecho que ambas compañías se sumerjan en una guerra por ver quien saca el mejor procesador el mercado, lo que lleva como consecuencia una evolución más rápida y un avance en las tecnologías. Procesador Velocidad de reloj Ancho de Nº de bus transistores 4004 108 KHz 4 bits 2300 8008 108 KHz 8 bits 3500 8008 2 MHz 8 bits 6000 80286 8, 10 y 12 MHz 16 bits 134000 Intel 386DX 16, 20, 25 y 33 MHz 32 bits 275000 Intel 386SX 16 y 20 MHz 16 bits 275000 Intel 486DX 25, 33 y 50 MHz 32 bits 1185000 Intel 486SX 16, 20, 25 y 33 MHz 32 bits 1185000 32 bits 3100000 64 bits 7500000 60, 66, 75, 90, 100, Pentium 120, 133, 150, 166 y 200 MHz Pentium II 233, 266 y 300 MHz Ley de Moore Aquí haré una pequeña mención a la ley que el Dr. Gordon Moore formuló en el año 1965. Esta ley viene a decir que cada 18 meses se duplica la cantidad de transistores contenidos en un procesador. Esta ley se ha cumplido los últimos 30 años y se espera que se siga cumpliendo. Partes de Microprocesador El encapsulado: es lo que rodea a la oblea de silicio en sí, para darle consistencia, impedir su deterioro (por ejemplo por oxidación con el aire) y permitir el enlace con los conectores externos que lo acoplarán a su zócalo o a la placa base. La memoria caché: una memoria ultrarrápida que sirve al micro para tener a mano ciertos datos que previsiblemente serán utilizados en las siguientes operaciones sin tener que acudir a la memoria RAM, reduciendo el tiempo de espera. Es lo que se conoce como caché de primer nivel o L1; es decir, la que está más cerca del micro, tanto que está encapsulada junto a él. Todos los micros tipo Intel desde el 486 tienen esta memoria, también llamada caché interna. El coprocesador matemático: más correctamente, la FPU (Floating Point Unit, Unidad de coma Flotante). Parte del micro especializada en esa clase de cálculos matemáticos; también puede estar en el exterior del micro, en otro chip. El resto del microprocesador: el cual tiene varias partes, unidad de enteros, registros, etc. Modelos de Microprocesador A parte de los antiguos modelos 486 y anteriores, la gama de procesadores difiere según su fabricante. Intel cuenta con la gama Pentium: MMX, Pro, Pentium II, Celeron, Xeon, Pentium III y en la actualidad se ha anunciado la aparición del Pentium 4. AMD tiene el K5, K6, K6 II, K6 III, K7 Athlon y el Duron. Cyrix: el 6x86, 6x86MX y MII. IDT: Winchip C6, Winchip2 y Winchip3. La Placa base La "placa base" (mainboard), o "placa madre" (motherboard), es el elemento principal de todo ordenador, en el que se encuentran o al que se conectan todos los demás aparatos y dispositivos. Físicamente se trata de una placa de material sintético sobre la cual existe un circuito electrónico que conecta diversos elementos que se encuentran anclados sobre ella, y los principales son: el microprocesador (pinchado en el zócalo), la memoria (generalmente en forma de módulos), los slots o ranuras de expansión donde se conectan las tarjetas, y diversos chips de control entre ellos la BIOS. Una de las primeras distinciones que se pueden hacer es respecto al tamaño, y hay dos grandes estándares: ATX y Baby AT. Las ATX cada vez son más comunes y van camino de ser las únicas del mercado, son de más fácil ventilación debido a que el microprocesador suele colocarse cerca del ventilador de la fuente de alimentación, una de las diferencias con la Baby AT son los conectores (que suelen ser más USB), que están agrupados y tienen el teclado y ratón con clavijas mini-DIN. Las placas Baby AT fueron el estándar durante años, es una placa con unas posiciones determinadas para el conector del teclado, los slots de expansión y los agujeros de anclaje a la caja, así como un conector eléctrico dividido en dos piezas. En los ordenadores actuales existen seis tipos de zócalos para el procesador: Socket 7, Socket 8, Super 7, Slot 1, Slot 2 y Socket 370. Las placas Socket 7 albergan los procesadores Pentium, K5 de AMD, 6x86 de Cyrix y Winchip C6 de IDT; ya no se venden, pues carecen de las interfaces más utilizadas en la actualidad, como el bus AGP y el puerto USB. Estos dos estándares se incorporan en las placas Super 7, también compatibles Pentium y K6. Las placas Socket 8, muy escasas, albergan los extinguidos procesadores Pentium Pro. Las placas Slot 1 son necesarias para suministrar soporte a los Pentium II/III y Celeron, y suelen disponer del formato ATX, que reorganiza la localización de las tarjetas, para que quepa mayor cantidad en el mismo espacio, y se reduzca el cruce de cables internos. Una variante son las placas Slot 2, soporte de la versión Xeon del Pentium II, utilizada en servidores profesionales. Finalmente, las placas Socket 370 alojan una versión especial de Celeron, con las mismas prestaciones que el modelo Slot 1, pero más barato para el fabricante. El bus de la placa base son los canales por donde circulan los datos que van y vienen del microprocesador. Con la aparición de microprocesadores muy rápidos se desperdiciaba parte de su potencia debido a que el bus hacía de cuello de botella, atascando los datos y haciendo esperar al microprocesador a que estuvieran disponibles los datos. Tras el tradicional bus ISA de 8 MHz han surgido otras alternativas como el Vesa Local Bus y el PCI, que ampliaban el ancho de banda de 16 hasta 32 bits. El resultado es una mejora en el rendimiento al transferir el doble de información (de 16 a 32 bits) en una misma operación. El Vesa Local Bus se quedó rápidamente obsoleto, permaneciendo el bus PCI que es el que se esta usando. Las placas más modernas soportan una velocidad del bus que varía entre los 50 y los 100 MHz, en función del procesador utilizado. La placa también incorpora distintos multiplicadores: 2x, 3x, etc. Valores superiores a 5x comienzan a ser imprescindibles. Estos dos datos se utilizan para soportar todo tipo de procesadores. A mayor número de velocidades del bus y multiplicadores, la placa soportará mayor cantidad de procesadores. Para instalar un Pentium II a 400 MHz, por ejemplo, se configura el bus a 100 MHz y se activa el multiplicador 4x. 100x4=400 MHz. Un Pentium a 200 MHz se configura con un bus a 66 MHz y un multiplicador 3x. 66x3=198 MHz. Una placa base actual debe disponer de una ranura AGP para la tarjeta gráfica, cuatro o cinco PCI y de los puertos exteriores no pueden faltar dos entradas COM y al menos dos USB. La BIOS La BIOS (Basic Input-Output System, sistema básico de entrada-salida). Es un programa incorporado en un chip de la placa que se encarga de realizar las funciones básicas de manejo y configuración del ordenador. La Bios debe poder modificarse, al añadir un disco duro, al cambiar al horario de verano, por eso se implementan en memoria. Pero debe mantenerse al apagar el ordenador, por lo que se usan memorias especiales, como la CMOS, por lo que a veces el programa que modifica la Bios se denomina “CMOS Setup”. Esta memoria se borra si les falta electricidad, pero consumen tan poco que se mantienen durante años con una pila (normalmente de botón, como las de un reloj). Memoria caché El procesador, si necesita información, primero consulta en este tipo de memoria intermedia para ver si lo que busca está allí. En caso afirmativo, se trabaja con esos datos sin tener que esperar a que se acceda a la memoria principal. Existen 2 tipos de memoria caché: L1 (level 1 o primer nivel) y L2 (level 2 o segundo nivel). La caché L1 va incorporada en el procesador y tiene un acceso más rápido por parte de este, y la L2 es una pieza externa, aunque en el Pentium Pro va integrada y en el Pentium II va en la tarjeta del procesador. En estos casos la velocidad de la caché L2 es mayor al no pasar por una línea de BUS. La memoria caché es una capa intermedia entre la memoria Ram y el procesador, y en ella se guarda un registro de las direcciones de memoria utilizadas recientemente y los valores que contienen. Cuando el procesador pide acceso a la memoria la dirección y el valor están en la memoria, pero si no lo están lo copiará de la memoria y reemplazará el antiguo valor con éste. De este modo el procesador puede acceder con mayor rapidez a los datos más utilizados. Al ser mucho más rápida la caché L1, mayor tamaño implica mayor velocidad de proceso, como los Pentium MMX (32 Kb de caché L1) o los procesadores K6 de AMD (64 Kb de caché L1). La ausencia de L2 afecta negativamente a las prestaciones del equipo, pero la diferencia entre 256kb y 512kb es de un 5%, excepto si se usan sistemas operativos como Windows NT, OS/2 o UNÍS, donde se necesita almacenar gran cantidad de memoria en la caché. Existen tres clases diferentes de memoria caché: Async SRAM (Asynhronous Static RAM): es la antigua caché de los 386, 486 y primeros Pentium. Más rápida que la DRAM pero que provoca igualmente estados de espera en el procesador. Su velocidad es de 20, 15 o 12 ns. Sync SRAM (Synchronous Burst Static RAM): es la mejor para un bus de 66 MHz y puede sincronizar la velocidad de la caché con la velocidad del procesador. Su velocidad es de 12 a 8.5 ns. PB SRAM (Pipelined Burst Static RAM): funciona de manera sincronizada con el procesador a velocidades de hasta 133 MHz. Tarda un poco más que la anterior en cargar los datos, pero una vez cargados el procesador puede acceder a ellos con más rapidez. Su velocidad es de 4.5 a 8 ns. EL FUNCIONAMIENTO DE LA RAM CACHE. La RAM caché está, pues, situada entre la CPU y la memoria de trabajo y opera a modo de memoria intermedia. Dado que las computadoras compatibles IBM procesan las instrucciones de forma secuencial (por orden de llegada), los mejores programas son los escritos partiendo del "principio de localidad". Este principio determina que al ponerse en marcha el programa se utilicen partes de memoria de un sector inmediato, ubicadas en serie y lo mas cerca posible unas de otras. Los saltos a zonas de la memoria mas alejadas ("far jumps") son poco frecuentes. Para activar un bucle de programación que vaya a ejecutarse con asiduidad, debe extraerse de la memoria una y otra vez la misma instrucción. La memoria caché funciona de forma que ante una solicitud de la CPU, el fragmento de la memoria a leer y el que le sigue han de ser cargados primero en la memoria caché y luego enviados a la CPU. Cualquier usuario que conozca las bases técnicas de la programación sabe que la próxima solicitud de la CPU hará referencia al mismo sector de la memoria o a uno vecino del anteriormente consultado. Así, con este método al memoria caché puede satisfacer, en la mayoría absoluta de los casos, las consultas formuladas. Si no dispusiéramos de ella, la memoria de trabajo tendría, una vez mas, que pasar a la acción. El procedimiento descrito optimiza, asimismo, los accesos del procesador a la memoria de trabajo. El aprovechamiento de la operatividad de los procesadores de alto rendimiento depende, así, de la capacidad que tenga la memoria caché de satisfacer a la CPU. Frente a un fallo de la caché la CPU se ve obligada a recurrir a la relativamente mas lenta memoria de trabajo. Los fabricantes de placas madre utilizan estrategias de caché muy diversas. Las diferencias residen en la manera de almacenar y localizar los datos y los usos que se le dan al contenido de esta memoria. También los procesos de reproducción, es decir, los principios que rigen el modo de copiar la memoria de trabajo sobre la caché, pueden diferir unos de otros. Las dimensiones de la memoria caché son igualmente importantes, pero no vamos a recrearnos aquí¡ sobre las peculiaridades que distinguen a un principio de reproducción asociativo total de uno parcial. En resumen puede decirse que las placas con una frecuencia idéntica pero con o sin caché‚ externa son tan diferentes como la noche del día. Solo mediante una RAM caché puede aprovecharse de forma real toda la capacidad de un procesador. Incluso en las placas 386SX las diferencias mencionadas se hacen palpables. Respecto a las dimensiones de la memoria caché, cabe señalar que una computadora con el DOS tiene mas que suficiente con 64 Kb (es el tamaño ideal). Comparaciones efectuadas revelaron que, por ejemplo, un 486 que opere bajo el DOS se vera alentizado en proporción a las dimensiones de la caché instalada. El rendimiento del mismo, tras la ampliación de una memoria caché de 64 a 256 kilobytes se redujo en un 10% aproximadamente. Bajo el OS/2, en cambio, se constató un claro aumento de la capacidad operativa. Memoria Ram La memoria Ram (Ramdom Acces Memory, Memoria de Acceso Aleatorio) es donde el ordenador guarda los datos que está utilizando en el momento presente. La diferencia entre Ram y otros tipos de memoria de almacenamiento, es que la Ram es mucho más rápida y que se borra al apagar el ordenador. Físicamente, los chips de memoria suelen ir soldados a una pequeña placa con un determinado número de contactos o pines (llamados módulos). Encontramos de 30 contactos (8 bits) y que mide unos 9cm, de 72 (32 bits) y casi 11 cm y de 168 (64 bits) y 13 cm de longitud. Las de 30 y 72 contactos reciben el nombre de SIMM (Single In-line Memory Module) que se fabrican con capacidades de 4, 8, 16, 32 y 64 Mb y funcionan a 5V, mientras que la de 168 se conoce como DIMM (Double In-line Memory Module) que llevan dos muescas para facilitar su colocación, se pueden montar de 1 en 1 y pueden trabajar a 3,3V o a 5V dependiendo del tipo. El tiempo de acceso a la memoria por lo general viene grabado en los chips, también se puede calcular de forma sencilla: Tiempo de acceso = (1000 / Frec. del procesador en MHz) x 2 nanosegundos. Existen muchos tipos de memoria Ram, solo mencionaré los tipos más importantes: DRAM: Dinamic RAM, es la primera utilizada y por tanto la más lenta, su velocidad de refresco es de 80 0 70 nanosegundos, y era usada hasta el 386. FPM: Fast Page, es la evolución de la anterior. Algo más rápida tanto por su estructura (Página Rápida) como por ser de 70 o 60 ns. Usada hasta los primeros Pentium, aparecía en forma de SIMM's de 30 o 72 contactos. EDO-RAM: Extended Data Output RAM. Evoluciona de la Fast Page. La novedad es que permite empezar a introducir nuevos datos mientras los anteriores están saliendo, lo que la hace más rápida (un 5%). Común en los Pentium MMX y AMD K6 refrescos de 60 o 50 ns. Se instala en SIMM's de 72 contactos aunque existen DIMM's de 168. SDRAM: Sincronic-RAM. Funciona de manera sincronizada con la velocidad de la placa (de 50 a 66 MHz), por lo que debe ser rapidísima, de 25 a 10 ns. Sólo se presenta en forma de DIMM's de 168 contactos. PC100: SDRAM de 100 MHz. Memoria SDRAM capaz de funcionar los 100 MHz que usan los Pentium II a 350 MHz, AMD K6-2 y procesadores más modernos. PC133: SDRAM de 133 MHz, es la más moderna. Discos Disquetera Las unidades de disquete sólo han existido dos formatos físicos considerados como estándar, el de 5 1/4 y el de 3 1/2. En formato de 5 1/4, el IBM PC original sólo contaba con unidades de 160 Kb., esto era debido a que dichas unidades sólo aprovechaban una cara de los disquetes. Luego, con la incorporación del PC XT vinieron las unidades de doble cara con una capacidad de 360 Kb.(DD o doble densidad), y más tarde, con el AT, la unidad de alta densidad (HD) y 1,2 Mb El formato de 3 1/2 IBM lo impuso en sus modelos PS/2. Para la gama 8086 las de 720 Kb. (DD o doble densidad) y para el resto las de 1,44 Mb. (HD o alta densidad) que son las que hoy todavía perduran. En este mismo formato, también surgió un nuevo modelo de 2,88 Mb. (EHD o Extra alta densidad), pero no consiguió cuajar. Discos Duros Un disco duro está compuesto de numerosos discos de material sensible a los campos magnéticos, apilados unos sobre otros; en realidad se parece mucho a una pila de disquetes sin sus fundas y con el mecanismo de giro y el brazo lector incluido en la carcasa. Han evolucionado mucho desde los modelos primitivos de 10 ó 20 MB. Actualmente los tamaños son del orden de varios gigabytes, el tiempo medio de acceso es muy bajo (menos de 20 ms) y su velocidad de transferencia es tan alta que deben girar a más de 5.000 rpm (revoluciones por minuto). En los discos duros hay que tener en cuenta una serie de parámetros: Capacidad: en la actualidad es aconsejable un mínimo de 10 o 12 Gb. Tiempo de acceso: nos indica la capacidad para acceder de manera aleatoria a cualquier sector del disco. Velocidad de transferencia: esta directamente relacionada con el interface. En un dispositivo Ultra-2 SCSI es de 80 MBytes/seg. mientras que en el Ultra DMA/33 (IDE) es de 33,3 MBytes/seg. en el modo DMA-2. Esta velocidad es la máxima que admite el interface, y no quiere decir que el disco sea capaz de alcanzarla. Velocidad de rotación: Suele oscilar entre las 4500 y las 7200 revoluciones por minuto. Es un factor importante y a tener en cuenta. Caché de disco: la memoria caché implementada en el disco es importante, pero más que la cantidad es importante la manera en que ésta se organiza. Por ello este dato normalmente no nos da por sí solo demasiadas pistas. Son normales valores entre 64 y 256 Kb. Los dos interfaces de disco duro son el IDE y el SCSI. El primero, sus discos la limitación a 528 Mb. y pudiendo solo conectar hasta 2 de ellos. Después vinieron los discos EIDE (FastATA) compatibles con los primeros, pero con algunas mejoras, basadas en la especificación ATA-2, que ya soporta unidades de CDROM (ATAPI) y de cinta. Otra mejora importante es el soporte de 2 canales para conectar hasta 4 unidades. Además se definen varios modos de transferencia de datos, que llegan hasta los 16,6 Mb./seg. como el PIO-4, o mejor aún el DMA-2, que soporta la misma tasa pero sin intervención de la CPU. La última especificación, desarrollada por Quantum es la Ultra DMA/33 (UltraATA), que permite transferencias DMA a 33 Mb./seg. El segundo, el interface SCSI, su primer disco, llamado SCSI-1, con un ancho de bus de 8 bits, aunque ya en esta primera especificación se incluían características muy destacadas, como la posibilidad de conectar hasta 7 dispositivos de todo tipo, discos, cintas, escáneres, CD-ROM, etc. Después viene el SCSI-2, que ya dispone de un ancho de bus de 16 bits. El siguiente paso es el Fast-SCSI, considerado el doble de rápido. Después viene el Wide SCSI, ya con un ancho de bus de hasta 32 bits, así como un mayor rendimiento. Tarjeta de video Es lo que transmite al monitor la información gráfica que debe presentar la pantalla, y realiza dos operaciones básicas: interpreta los datos que le llegan del procesador, ordenándolos y calculando para poder presentarlos en la pantalla en forma de un rectángulo más o menos grande compuesto de puntos individuales de diferentes colores (pixels) y coge la salida de datos digitales resultante de ese proceso y la transforma en una señal analógica que pueda entender el monitor. Las primeras tarjetas gráficas presentaban el texto en monocromo, generalmente en un tono verde brillante. Con la llegada de los primeros PC's aparecieron las tarjetas CGA que eran capaces de mostrar las imágenes en 4 colores a una resolución de 320 x 200 y en monocromo a 640 x 200. IBM invento la tarjeta EGA capaz de mostrar imágenes de 16 en tres resoluciones diferentes. Apareció más tarde la VGA que tenía multitud de modos de video posibles, pero el más común era el de 640 x 480 con 256 colores. Recientemente las tarjetas de video ya no son tales, son tarjetas gráficas con su propio chip para procesar imágenes 3D incluso más potente que algunos procesadores. La tarjeta gráfica se conecta la placa base mediante un slot o ranura de expansión, algunos tipos de ranura se han creado precisamente para satisfacer a la ingente cantidad de información que se transmite cada segundo a la tarjeta gráfica: ISA: poco apropiado para uso gráfico. Usado hasta las primeras VGA que aceleraban la velocidad del sistema para liberar al microprocesador de parte de la tarea gráfica. VESA Local BUS: era un conector íntimamente unido al microprocesador, lo que aumentaba la transmisión de datos y una solución usada en muchas placas de 486. PCI: hasta hace poco el estándar de conexión de las tarjetas gráficas. Veloz para las anteriores tarjetas 2D pero ineficaz para las nuevas 3D. AGP: pensado únicamente para tarjetas gráficas que transmiten gran cantidad de información por segundo, tiene la ventaja de que las tarjetas AGP pueden usar memoria del sistema como memoria de video (lo cual afecta al rendimiento). Las tarjetas aceleradoras 3D sólo sirven para juegos y para programas de diseño gráfico 3D que estén preparados para sacarles partido. Si habitualmente trabajamos con programas ofimáticos no se obtiene ningún beneficio de estas nuevas tarjetas. En cuanto a la programación en 3D, en un principio cada fabricante usaba su propia API (lenguaje) para que los programas se comunicaran con el hardware. Hoy sólo sobreviven 3: Glide, que es la propia de las tarjetas Voodoo de 3dfx y que consiguió imponerse a las demás gracias a la aceptación de estos chips por su elevado rendimiento; Direct3D, que es parte de las DirectX de Microsoft, y Open GL que es propiedad de Silicon Graphics y que hace ya mucho tiempo se utilizaba en las estaciones de trabajo de esta marca. Parece que en un futuro cercano sólo sobrevivirá una de ellas, y ésta no será más que Direct3D, aunque eso sí, gracias a un acuerdo alcanzado con S.G. que permitirá fusionar totalmente ambas plataformas (de hecho en las DirectX 6 ya está presente gran parte del API OpenGL). EL BUS ISA. Las siglas ISA hacen referencia a la (I)nduistrial (S)tandart (A)rchitecture (Arquitecutra Industrial Estandarizada). Cuando en la actualidad se habla de estándares industriales o del bus ISA se suele hacer pensando en el Bus AT de 16 bits. Este preconcepto no es, de todos modos, absolutamente adecuado pues la denominación ya se empleaba en los tiempos del XT de IBM y por razones muy validas. Las ranuras de expansión uniformes del XT fueron unas de las razones fundamentales para la enorme difusión de este tipo de computadoras y la de sus sucesores. Las mismas representan de la forma más clara el concepto de la arquitectura abierta de las computadoras, la cual, a través de la incorporación de tarjetas de expansión de todo tipo, capacita a la computadora para realizar cualquier clase de tarea, sobre todo las relacionadas con entornos industriales. Las ranuras del XT incluían, junto al Bus de direcciones de 20 bits, un solo Bus de datos de 8 bits. Su capacidad operativa era, por tanto, y desde una perspectiva actual bastante limitada. Como ya hemos apuntado, en las mayorías de las placas madres encontramos, junto a las citadas ranuras de 16 bits, dos o mas ranuras de 8 bits. Ello se debe a la ambición de economizar (¿ tacañería ?) del fabricante, pues la introducción de tarjetas de 8 bits es, naturalmente, posible en los slots de 16 bits. Con una frecuencia de reloj de 8MHz, el Bus AT alcanza un índice máximo de transmisión de datos de 6.5 MB/S, un valor más que aceptable pero que es plenamente utilizado por muy pocas tarjetas. Pero desde hace poco, y merced a la cada vez más común utilización de CPU de 32 bits, pueden emplearse sistemas de Bus capaces de alcanzar cotas de transmisión de datos más elevadas. EL BUS EISA. Las siglas EISA corresponden a la (E)nhanced (I)ndustrial (S)tandart (A)rchitecture, que vendría a ser algo así como la arquitectura industrial estandarizada y ampliada. En la practica el Bus EISA no es sino una prolongación del Bus AT, desarrollada por los fabricantes de computadoras mas importantes del mundo ( a excepción de IBM) a fin de enfrentar los cada vez más importantes retos planteados por los procesadores de 32 bits. El BUS EISA es un Bus de 32 bits autentico. Esto significa que los 32 conductos de datos de su CPU están disponibles en el slot de expansión correspondiente. El índice notablemente superior de transmisión de datos no es la única ventaja que lo caracteriza frente al BUS ISA. Hay un rasgo mucho más importante y habitualmente menos tomado en cuenta que lo define: la capacidad multiusuario. Esta posibilita el acceso común de varios procesadores a un mismo Bus, con lo cual problemas como la configuración de un computadora en paralelo a través de tarjetas de CPU, tendrían fácil solución. EL BUS MCA. El bus MCA o MICROCHANNEL, como se le suele denominar, no es en realidad un bus, sino una especie de sistema de canalización, en el cual los datos no son transmitidos al receptor correspondiente mediante un código simple de direccionamiento, sino que, prácticamente, tienen que ser recogidos por él. Para ello, previamente se informa al receptor (que puede ser, por ejemplo, la tarjeta gráfica) sobre el punto en el que se encuentran los datos y se le da acceso a un canal, por el cual pueden ser transportados. Este proceso tiene lugar sin la participación de la CPU. El MICROCHANNEL, que fue desarrollado por IBM para su línea de equipos PS/2, alcanza, con esta metodología un índice de rendimiento nada despreciable. La cota de transmisión de datos puede llegar a los 20 MB/s y además el procesador, también mejora su ritmo operativo. Sin embargo, este sistema no ha conseguido implantarse fuera de la generación IBM PS/2 para la que fue diseñado. La razón de ello no es otra que su total incompatibilidad con las demás tarjetas existentes. Por consiguiente, si desea instalar una placa MICROCHANNEL tendrá que descartar los componentes del sistema que ya disponía y adquirir los que se corresponden con ella. Y todo esto a un precio superior al que usted estaba acostumbrado. En efecto, hasta la mas insignificante ampliación, pensemos, por ejemplo, en una ranura adicional, requiere elementos electrónicos costosos y complejos (al fin y al cabo el objetivo es liberar de trabajo a la CPU) para adaptarse al MICROCHANNEL. Este hecho, junto a la difícil situación de las patentes, llevo al resto de fabricantes a desarrollar el estándar EISA arriba descrito. Así las cosas, si usted es ya propietario de una IBM PS/2 (exceptuemos al PS/230, que cuenta con un estándar ISA de 8 bits), le felicitamos por disponer de un sistema de bus inteligente y con gran capacidad operativa y deseamos que no se vea en la necesidad de efectuar ampliaciones. Si esta contemplando la idea de adquirir una de estas computadoras, tendría que analizar la mejora del rendimiento que le ofrece MICROCHANNEL, frente a las limitadas posibilidades de expansión que implica. No olvide que muchas modificaciones es estos equipos (véase, por ejemplo, la instalación de una unidad de disquete de 5 1/4 pulgadas o de un disco duro mas potente) requieren inversiones considerables o la asistencia directa del fabricante. Tarjeta de sonido En un principio el ordenador no fue pensado para manejar sonido, excepto por el llamado altavoz interno o PC speaker. Pero entró en escena el software que más ha hecho evolucionar los ordenadores desde su aparición: los videojuegos. Estos eran mucho mejores cuando los muñequitos emitían algunos sonidos y tenían alguna musiquilla. Y apareció en el mercado la tarjeta que revolucionó el sonido en los PC's y que se convirtió en estándar, la tarjeta de sonido SoundBlaster. Esta tarjeta convertía los datos digitales del ordenador en analógicos para que pudieran oírse por los altavoces, de eso se encargaba el DAC (Conversor Analógico-Digital) y cuando se hace al revés deberemos transformar esos datos analógicos que llegan por el cable en muestras digitales que podamos almacenar en nuestro disco duro. Hoy en día esta de moda el sonido 3D o envolvente. Para conseguir esto, del mismo modo que existen juegos con gráficos 3D, también pueden soportar sonido 3D (o ambiental). Si un juego 3D debe estar programado con alguna librería gráfica 3D (léase Glide, Direct 3D o OpenGL), también debe estarlo para soportar el sonido ambiental, mediante el uso de alguna de los formatos existentes. Las conexiones que usan las tarjetas de sonido son tradicionalmente los conectores mini-jack, como los de un radiocasete portátil normal. Otro de los conectores es el RCA, tradicional en las cadenas de sonido domésticas; usan un canal independientemente del otro (en dos cables, uno rojo y otro blanco) que ofrecen más calidad que el mini-jack, pero son más caros y menos compactos. Además de estos conectores externos, los hay también internos, siendo el más importante el que va al CD-ROM, para poder escuchar los CDs de música. Puede ser digital (sólo en los más modernos) o el típico analógico, del cual hace tiempo había varios formatos (para CD-ROMs Sony, Mitsumi, IDE...) ahora ya unificados. Módem Módem es el acrónimo de modulador / demodulador, es decir, un dispositivo que transforma las señales digitales del ordenador en señal telefónica analógica y viceversa, con lo que permite al ordenador transmitir y recibir información por la línea telefónica. La principal distinción entre los módems es entre internos y externos: Internos: consisten en una tarjeta de expansión sobre la cual están dispuestos los diferentes componentes que forman el módem. Existen para diversos tipos de conector: o ISA: debido a las bajas velocidades que se manejan en estos aparatos, durante muchos años se utilizó en exclusiva este conector, hoy esta en desuso. o PCI: el formato más común en la actualidad. o AMR: sólo en algunas placas muy modernas. Baratos pero poco recomendables por su bajo rendimiento. La principal ventaja de estos módems reside en su mayor integración con el ordenador, ya que no ocupan espacio sobre la mesa y toman su alimentación eléctrica del propio ordenador. Además, suelen ser algo más baratos debido a carecer de carcasa y transformador. Por contra, son algo más complejos de instalar y la información sobre su estado sólo puede obtenerse mediante software Externos: son similares a los anteriores pero metidos en una carcasa que se coloca sobre la mesa o el ordenador. La conexión con el ordenador se realiza generalmente mediante uno de los puertos serie o "COM", por lo que se usa la UART del ordenador, que deberá ser capaz de proporcionar la suficiente velocidad de comunicación; actualmente ya existen modelos para puerto USB, de conexión y configuración aún más sencillas. La ventaja de estos módems reside en su fácil transportabilidad entre ordenadores, además de que podemos saber el estado el módem (marcando, con / sin línea, transmitiendo...) mediante unas luces que suelen tener en el frontal. Por el contrario, son un trasto más, necesitan un enchufe para su transformador y la UART debe ser la adecuada. La velocidad es el parámetro que mejor define a un módem. Las velocidades de los módems vienen expresadas en bits por segundo, bps. El estándar más habitual y el más moderno está basado en la actual norma V.90 cuya velocidad máxima está en los 56 Kbps (Kilobits por segundo). Esta norma se caracteriza por un funcionamiento asimétrico, puesto que la mayor velocidad sólo es alcanzable "en bajada", ya que en el envío de datos está limitada a 33,6 Kbps. Otra consideración importante es que para poder llegar a esta velocidad máxima se deben dar una serie de circunstancias que no siempre están presentes y que dependen totalmente de la compañía telefónica que nos presta sus servicios, pudiendo ser en algunos casos bastante inferiores. Posiblemente, el componente más importante de un módem es el chip UART (Universal Asynchronous Receiver/Transmitter), encargado de transmitir los datos; existen varios modelos de UART, el más básico de los cuales es el 8250A, empleado en ordenadores 286 y 386 y ya obsoleto. La velocidad de comunicación entre el módem y el ordenador debe ser mayor que a la que se están comunicando nuestro módem y el módem remoto. Cuanto mayor sea el flujo de información entre nuestro ordenador y nuestro módem, más libre estará éste para ir dando la información que recibe del exterior y mejor será el rendimiento. Un módem de 55.600 bps tiene una velocidad de comunicación con el ordenador de 115.200 bps (muy superior al valor nominal), quien controla y limita estos valores de transmisión es la UART. Se suelen oír expresiones como módem ADSL o incluso módem RDSI, aunque esto no es cierto en estos casos, ya que estas líneas de tipo digital no necesitan de ningún tipo de conversión de digital a analógico, y su función en este caso es más parecida a la de una tarjeta de red que a la de un módem. La línea RDSI, la Red Digital de Servicios Integrados (ISDN en inglés), o lo que es lo mismo: la línea de teléfono digital. Lo que distingue a estas líneas no es el cable, que en la mayoría de los casos es el mismo, sino el método de utilizarlo: se utiliza la línea telefónica digitalmente en vez de analógicamente, lo cual implica que la cantidad de información transmitible por la línea es mayor. La instalación de una conexión a Internet por RDSI no es mucho más difícil que hacerlo con una normal, y suelen venir en un paquete que incluye la contratación de la línea, la tarjeta RDSI, la conexión a Internet y la instalación a domicilio de todo. CHIPS DE MEMORIA. En las computadoras personales actuales se utilizan aproximadamente unos 12 tipos distintos de chips de memoria. Estos chips se combinan de diferentes maneras según el tamaño y alcance de la memoria de trabajo en concreto. La compatibilidad con una placa de memoria dada viene determinada por las tomas (zócalos) que hay en esa placa. Los chips simplemente se enchufan a esas tomas, por lo que el soldador, que se utilizaba años atrás para realizar ampliaciones de memoria, ya no es necesario. Los distintos chips que se utilizan para la memoria de trabajo pueden dividirse en dos grupos: chips DRAM (RAM din mica) y SIMM (Single In- line Memory Module) o SIP (Single In- line Packages). La diferencia entre estos dos grupos es fácil de explicar. Mientras los chips de RAM din mica constan de elementos individuales de chips sencillos, en los módulos SIMM o SIP varios chips RAM se agrupan en un solo elemento. Por lo tanto, Los SIMM o SIP son simplemente un grupo de chips RAM que se han soldado conjuntamente para formar un único componente. Mas adelante analizaremos esta cuestión m s detalladamente. CHIPS DE RAM DINAMICA. Los chips de RAM din mica están situados en unas pequeñas carcasas negras para chips con patillas que sobresalen de sus lados mayores. Estas patillas permiten que el chip este conectado al resto del sistema. Según la capacidad del chip éste tendrá 16, 18, o incluso 20 patillas. Los chips están disponibles en capacidades de 64, 256 kilobytes e incluso de 1 megabits, y por lo general contienen las inscripciones correspondientes (4164, 41256, y 411000 o 411024 respectivamente). En los últimos tiempos se ha venido haciendo mas popular una versión especial de chips RAM que utiliza una estructura de bit cuádruple. Estos chips tienen cuatro veces mas capacidad de almacenamiento que un chip normal de 1 bit, y est n disponibles en los modelos 464, 4256 y 4400. Sin embargo, no debe preocuparse por las denominaciones de chips RAM, ya que con un poco de práctica podrá determinar la capacidad de un chip RAM por el numero de patillas de cada chip (los chips de 64 y 256 kilobits tienen 16, los de 464 y los de 1000 kilobits tienen 18 y los chips de bits cuádruple tienen 20 patillas) y por los tres a cuatro últimos dig¡tos que hay inscritos en la carcasa del chip. Este tipo de chips RAM se denominan "din micos" porque los contenidos de su memoria deben refrescarse continuamente. Esto significa que estos chips est n sometidos a un "ciclo de refresco" constante. Esto sucede simplemente por la naturaleza de estos componentes, porque el elemento real de almacenamiento es solamente el condensador, que puede estar cargado o descargado. Dado que un elemento así puede presentar dos estados, representan exactamente el valor de un bit. Por lo tanto, se necesita un condensador para cada bit. Por ejemplo, un chip de un megabit, capas de almacenar exactamente 1,040,576 bits de información, necesita mas de un millón de condensadores. Sin embargo, uno de estos condensadores pierde su carga después de un corto periodo de tiempo. Para conservar la información almacenada en el chip durante más tiempo del establecido, es necesario leer el estado de los condensadores del chip antes de que se pierda su carga y seguidamente recargarlos. Esto es el mencionado "ciclo de refresco". No se puede acceder a la información almacenada en el chip mientras éste est siendo refrescado. Dado que los intervalos entre cada reposición varían según los distintos tipos de chips, puede escoger entre chips RAM más rápidos y más lentos. El tiempo de acceso de los chips RAM vienen especificados en nanosegundos, y por lo general oscila entre 70 y 120 nanosegundos. Contra mayor sea el tiempo de acceso, m s lento ser el chip. MODULOS SIP Y SIMM. Los módulos SIP y SIMM se crearon como resultado de las aplicaciones de la computadora que continuamente necesitaban mas memoria. Cada módulo corresponde a una hilera completa de chips de memoria. Dado que el espacio que ocupan estos módulos es considerablemente más pequeño que el que utilizan las tomas convencionales DRAM, se puede instalar mas memoria en la placa principal. Estos módulos están disponibles en grupos de nueve chips y de tres chips; la ordenación de tres chips parece ser la que tiene mas aceptación. Sin embargo, no todas las placas principales son compatibles con esta tecnología. Si la placa no es compatible con el modulo de tres chips, es posible que surjan problemas de memoria o incluso mensajes de errores de paridad "Parity error", que indican que la placa no soporta los módulos. Estos módulos de memoria están disponibles en capacidades de 256k, 1 MB y 4 MB. Los módulos SIP (Single In-line Packages) tienen una hilera de 30 patillas pequeñas insertadas en la banda de toma correspondiente. Sin embargo, Los SIMM (Single In-line Memory Module) utilizan una banda de contacto parecida a las que se utilizan en las tarjetas de expansión. Por tanto, los SIMM están insertados en conectores envueltos o tipo snap. LOS BANCOS DE MEMORIA. Sea cual sea el tipo de elementos de memoria que se utiliza, la memoria situada en la placa principal de una PC se ha organizado en dos bancos de memoria desde la generación de la PC 286. El primero se denomina "Banco 0" y el segundo "Banco 1". Dado que, por lo general, es posible instalar diferentes tipos de chips de memoria, la capacidad de un banco de memoria depende del tipo de chips que utilice. Por esta razón, las placas 286 mas antiguas pueden alcanzar dos valores máximos, de 1 o de 4 MB de RAM, dependiendo de si se utilizan chips de 256 kilobits o chips de 1 megabit. Las placas principales de las PC de alta velocidad 386 y 486 contienen casi siempre SIMM. Cuando se utilizan módulos de 4 MB, se pueden alcanzar capacidades de memoria de 32 MB "en la placa". Esto es posible porque un banco de memoria, por regla general, incluye cuatro tomas o zócalos, por lo tanto, un total de ocho tomas pueden recibir SIMM. Algunas placas contienen incluso 16 tomas de este tipo, por lo cual se puede instalar hasta un máximo de 64 MB de RAM en la placa. COMBINACION DE DISTINTOS CHIPS DE MEMORIA. Dentro de un mismo banco de memoria, solo se deben utilizar chips de memoria de igual capacidad. Sin embargo, se permite el uso de chips con distintos tiempos de acceso. Los accesos a memoria se comportar n simplemente con referencia al chip mas débil del sistema. Aunque dentro de un banco de memoria se pueden mezclar chips de distintos fabricantes, en ocasiones esto pudiera traer problemas. No siempre est permitido utilizar chips con diferentes capacidades entre los bancos de memoria de una placa principal. Para mayor información, diríjase a los documentos que se incluyen en su placa principal. MEMORIA EXTENDIDA Y EXPANDIDA. Mediante la ampliación del bus de direcciones, primero a 24 y después a 32 conductos, se consiguió aumentar la franja de memoria direccionable. Así se creó la "memoria extendida", no utilizable por el DOS y no apta para el almacenamiento de programas. De todos modos, el DOS, a partir de su versión 4.01, incluye algunos controladores que aportan cierta utilidad a este tipo de memoria. gracias a ellos y al VDISK.SYS, puede instalarse un disco virtual en la memoria extendida. Cabe también la posibilidad de instalar en la memoria extendida dispositivos de control del disco duro o de la impresora. Pero esta forma tan práctica de liberar de tareas a la memoria de trabajo no impedir que en la pantalla del usuario del DOS aparezca el mensaje de "insuficient memory" (memoria insuficiente). Unicamente ciertos productos muy selectos de software, entre ellos el LOTUS 123 versión 2.2, consiguen utilizar la memoria extendida. Existe una posibilidad de ampliar la memoria de trabajo para las aplicaciones DOS y es el aprovechamiento de la ventana EMS. se trata de un sector de memoria no utilizado y situado en el marco de los 384 KB de la memoria del sistema (controller Memory). El principio EMS es realmente complejo, pero con un poco de fantasía se puede asimilar. Según la EMS (especificación de memoria expandida), pueden utilizarse todos los espacios direccionables vacíos entre 640 KB y 1 MB para fusionar en ellos sectores de memoria procedentes de otros espacios direccionables. La "ventana" que se consigue de esta manera muestra siempre la parte de la memoria que se esta empleando en cada momento. La totalidad de la memoria fusionada (hasta 32 MB) queda dividida en paginas con sus correspondientes direcciones lógicas. Para posibilitar el resaltado casi instantáneo de paginas de memoria adicionales, es preciso que la conexión r pida entre las direcciones de las memorias lógica y física(ventana EMS) se produzca en un segundo plano. Para poder ampliar la memoria según las directrices EMS es imprescindible cargar un determinado controlador al ponerse el sistema en funcionamiento. Los 286 y los 8088 precisan para este fin un hardware especial dotado de Bank-switchingLogic (lógica de conmutación de bancos). Por esta razón, el controlador de software depende también del hardware y viene siendo distribuido conjuntamente con las placas madre con capacidad EMS o con las tarjetas de expansión de memoria. Pero no todas las placas madre 286 soportan la EMS. Muchas se ayudan en tarjetas de expansión de memoria determinadas, como, por ejemplo, la IntelAvobe-Board. Los procesadores de aplicaciones 386 y 486 disponen de un "Virtual-Address-Mode"(modo virtual de direcci¢n) que facilita la operatividad de un sistema EMS dirigido únicamente por software. Se puede decir, por tanto, que estas computadoras ya salen de fabrica preparadas para acogerse a la metodología EMS. Desde el DOS 5.0 se incluye con vistas a ello un controlador especial EMS(EMM386.EXE). También hay otros programas que, como el 386MAX o el QEMM se adaptan a la ventana EMS, a fin de incrementar el volumen de memoria de trabajo disponible para el DOS y sus aplicaciones. Estos programas son independientes de hardware y por ello no requieren ningún entorno especial. De todos modos, cabe señalar que algunos de ellos puede presentar problemas. Desde la aparición de su versión 4.01, el DOS puede incorporar una llamada "High Memory Area"(área de memoria alta) en los primeros 64 KB de la memoria direccionable, cuyo volumen supera el megabyte y, desde el lanzamiento de su versión 5.0, puede incluso descargar partes del sistema operativo residentes en los mas altos sectores de la memoria, de modo que queden libres mas de 620 kB de la memoria de trabajo. Mediante el gestionador de memoria XMS conocido como HIMEM.SYS, programas como el Windows 3.0 a modo de aplicación del DOS, pueden acceder sin restricciones a toda la memoria existente y ponerla a disposición del resto de las aplicaciones. Para ello el Windows 3.0 asume el control total de la memoria y precisamente ello es causa de los problemas que plantea este asunto. Ya va siendo hora de que DOS sea sustituido por un sistema operativo autentico, capaz de trabajar en modo protegido y preparado para seguir el ritmo que marque la memoria direccionable ampliada de los procesadores mas rápidos. IBM ha logrado esto con la versión 2.0 del ya conocido OS/2. Así ya hemos llegado al final del apartado dedicado a la memoria de trabajo. Nos hemos extendido bastante, a fin de facilitarle una perspectiva completa de los aspectos problemáticos relacionados con su manejo. Creemos haber resuelto, con ello, todas las posibles dudas que pueden plantearse en torno a la conveniencia de la ampliación de esta memoria. La conveniencia de dicha ampliación depende, en primera instancia, del tipo de computadora que se posea. Ampliar un 286, por ejemplo, a mas de 2 MB de RAM nos parece poco razonable. En este caso, le convendría mas la compra de un 386, o , por lo menos, de un 386SX. Esta operación la reportar mas ventajas en cuanto al manejo de memoria. Por otra parte, la ampliación de la memoria de un 386 o de un 486 que se opere bajo el Windows resulta siempre ventajosa, ya que se agiliza su administración. Lo ideal en estos casos son 8 MB. Si usted únicamente trabaja con el DOS y sus aplicaciones, una ampliación de memoria no tendría mucho sentido. Contrariamente, si lo que utiliza es el OS/2, cualquier ampliación será bienvenida, pues cuanto mayor sea el volumen de RAM, mas rápido ser el funcionamiento del software.