Descargar archivo adjunto

Anuncio
Electrónica Digital III
ARMADO DE PC
Realizado por
Sebastián Frydman
Año 2015
Contenido
La PC
4
Arquitectura de PC
6
Microprocesador (CPU)
8
Placa Base ( MotherBoard)
11
Memoria RAM ( Random-Access-Memory)
16
Disco rígido ( Hard Disk Drive)
20
Fuente de alimentación
22
Unidad lectora de discos (CD, DVD & Blu-Ray)
25
Placa de video 27
Placa de sonido
30
Gabinete31
2
La presente edición del apunte de “Armado de PC” tiene por objetivos que el lector:
• Identifique los nombres, los propósitos y las características de los componentes internos de una PC.
• Identifique los nombres, los propósitos y las características de los puertos y los cables de conexión.
• Identifique los nombres, los propósitos y las características de los dispositivos de entrada/salida.
• Comprenda los recursos del sistema y sus propósitos.
A continuación se enuncian los materiales de consulta y fuentes principales:
• Web Wikipedia (http://www.wikipedia.org)
• Curso de hardware (2008) de V. Javier Ortiz Gallart
• Arquitectura de Computadoras - William Stalling
Aclaraciones:
Algunas partes son directamente copia o traducción de las fuentes.
Reconocimiento tautológico:
Todas las marcas pertenecen a sus respectivos propietarios.
3
La PC
Historia de la computadora
Los primeros microcomputadoras aparecieron en el mercado a finales de 1970 aunque se les conocía como
computadoras domésticos. Eran equipos de 8 bits (tamaño de la instrucción) orientados principalmente al
mercado del videojuego. Aunque aparecieron equipos de 16 bits, la aparición en 1981 del primer IBM PC
5150 de 16 bits hizo desaparecer el mercado de "computadoras domésticas". En cambio apareció un gran
mercado de equipos "PC Compatibles" que son los que hoy se conocen sencillamente como PCs. Estos "PC
Compatibles" o simplemente "PCs" se pueden encontrar como equipos de escritorio, portátiles o ultraportátiles y son de propósito general, permitiendo la conexión a redes, el trabajo de oficina, las aplicaciones
multimedia, etc.
Los IBM PC se basaban en una arquitectura de 16 bits, en chips x86 tipo CISC de Intel y en firmware PC
BIOS. Esta arquitectura original ha ido creciendo y desarrollándose mediante arquitecturas de 32 y 64 bits, el
desarrollo de chips y chipsets y la interfaz UEFI.
A pesar de la enorme popularidad de los PCs, otras arquitecturas de microprocesador son populares como
los equipos Apple, las vídeo-consolas o, en otros mercados, los dispositivos móviles.
De izquierda a derecha:
Apple II (1977)
Sinclair ZX Spectrum 48K (1981)
IBM PC 5150 (1981)
Año 1977
Año 1981
Esquema de una PC
4
Año 1981
¿Qué es una computadora?
La computadora es una máquina electrónica que recibe y procesa datos para convertirlos en información
conveniente y útil. Una computadora está formada, físicamente, por numerosos circuitos integrados y otros
muchos componentes de apoyo, extensión y accesorios, que en conjunto pueden ejecutar tareas diversas con
suma rapidez y bajo el control de un programa.
Dos partes esenciales la constituyen, el hardware, que es su composición física (circuitos electrónicos, cables,
gabinete, teclado, etcétera) y su software, siendo ésta la parte intangible (programas, datos, información, etcétera). Una no funciona sin la otra.
Desde el punto de vista funcional es una máquina que posee, al menos, una unidad central de procesamiento,
una memoria principal y algún periférico o dispositivo de entrada y otro de salida. Los dispositivos de entrada permiten el ingreso de datos, la CPU se encarga de su procesamiento (operaciones arimético-lógicas) y los
dispositivos de salida los comunican a otros medios. Es así, que la computadora recibe datos, los procesa y
emite la información resultante, la que luego puede ser interpretada, almacenada, transmitida a otra máquina
o dispositivo o sencillamente impresa; todo ello a criterio de un operador o usuario y bajo el control de un
programa.
El hecho de que sea programable, le posibilita realizar una gran diversidad de tareas, ésto la convierte en
una máquina de propósitos generales (a diferencia, por ejemplo, de una calculadora cuyo único propósito es
calcular limitadamente). Es así que, en base a datos de entrada, puede realizar operaciones y resolución de
problemas en las más diversas áreas del quehacer humano (administrativas, científicas, de diseño, ingeniería,
medicina, comunicaciones, música, etc), incluso muchas cuestiones que directamente no serían resolubles o
posibles sin su intervención.
Básicamente, la capacidad de una computadora depende de sus componentes hardware, en tanto que la diversidad de tareas radica mayormente en el software que admita ejecutar y contenga instalado.
Las tecnologías utilizadas en computadoras digitales han evolucionado mucho desde la aparición de los primeros modelos en los años 1940, aunque la mayoría todavía utiliza la Arquitectura de von Neumann, publicada por John von Neumann a principios de esa década, que otros autores atribuyen a John Presper Eckert y
John William Mauchly.
5
Arquitectura de PC
La arquitectura de computadoras es el diseño conceptual y la estructura operacional fundamental de
un sistema de computadora. Es decir, es un modelo y una descripción funcional de los requerimientos y
las implementaciones de diseño para varias partes de una computadora, con especial interés
en la forma en que la unidad central de proceso (CPU por Central Processing Unit) trabaja
internamente y accede a las direcciones de memoria. También suele definirse como la forma
de seleccionar e interconectar componentes de hardware para crear computadoras según los
requerimientos de funcionalidad, rendimiento y costo.
Arquitectura Von Neumann
La arquitectura de Von Neumann, también llamada de Eckert-Mauchly, describe una computadora con
cuatro (4) secciones principales: la unidad aritmético lógica, la unidad de control, la memoria primaria,
principal o central, y los dispositivos de entrada y salida (E/S). Estas partes están interconectadas por canales
de conductores denominados buses.
Las computadoras son máquinas de arquitectura von Neumann cuando:
• Tanto los programas como los datos se almacenan en una memoria en común. Esto hace posible la
ejecución de comandos de la misma forma que los datos.
• Cada celda de memoria de la máquina se identifica con un número único, llamado dirección.
• Las diferentes partes de la información (los comandos y los datos) tienen diferente modos de uso, pero la
estructura no se representa en memoria de manera codificada.
• Cada programa se ejecuta de forma secuencial que, en el caso de que no haya instrucciones especiales,
comienza con la primera instrucción. Para cambiar esta secuencia se utiliza el comando de control de
transferencia.
El diseño de una arquitectura Von Neumann es más simple que la arquitectura Harvard más moderna, que
también es un sistema de programa almacenado, pero tiene un conjunto dedicado de direcciones y buses de
datos para leer datos desde memoria y escribir datos en la misma, y otro conjunto de direcciones y buses de
datos para ir a buscar instrucciones.
En la gran mayoría de las computadoras modernas, se utiliza la misma memoria tanto para datos como para
instrucciones de programa, y la distinción entre Von Neumann vs. Harvard se aplica a la arquitectura de
memoria caché, pero no a la memoria principal.
6
La unidad central de procesamiento consta de manera básica de los siguientes tres elementos:
La unidad aritmético lógica (ALU, por sus siglas del inglés: Arithmetic-Logic Unit) es el dispositivo
diseñado y construido para llevar a cabo las operaciones elementales como las operaciones aritméticas
(suma, resta, ...), operaciones lógicas (AND, OR, NOT), y operaciones de comparación o relacionales. En esta
unidad es en donde se hace todo el trabajo computacional.
La unidad de control (UC) sigue la dirección de las posiciones en memoria que contienen la instrucción
que el computador va a realizar en ese momento; recupera la información poniéndola en la ALU para la
operación que debe desarrollar. Transfiere luego el resultado a ubicaciones apropiadas en la memoria. Una
vez que ocurre lo anterior, la unidad de control va a la siguiente instrucción (normalmente situada en la
siguiente posición, a menos que la instrucción sea una instrucción de salto, informando al ordenador de que
la próxima instrucción estará ubicada en otra posición de la memoria).
Los registros: de datos, de memoria, registros constantes, de coma flotante, de propósito general y de
propósito específico.
Una computadora puede tener más de una CPU; esto se llama multiprocesamiento. Todas las CPU
modernas son microprocesadores, lo que significa que contienen un solo chip.
Algunos circuitos integrados (ICs) pueden contener varias CPUs en
un solo chip. Estos IC son denominados procesadores multi-core o
multinúcleo.
La operación fundamental de la mayoría de las CPU es ejecutar una
secuencia de instrucciones almacenadas llamadas “programa”. El programa
es representado por una serie de números que se mantienen en una cierta
clase de memoria de ordenador. Hay cuatro pasos que casi todos las CPU
de arquitectura de von Neumann usan en su operación: fetch, decode,
execute, y writeback, (buscar, decodificar, ejecutar y escribir).
EDVAC, una de las primeras
computadoras de programas almacenados
electrónicamente.
Costo de fabricación: ~ 500.000 U$D
Año 1946
ENIAC, la primera computadora de proposito general.
Totalmente digital, utilizaba programas almacenados electrónicamente.
Pesaba 27 Toneladas, medía 2,4 m x 0,9 m x 30 m
Costo de fabricación: ~ 500.000 U$D
15 de Febrero de 1946
7
Microprocesador (CPU)
El microprocesador (o simplemente procesador) es el circuito integrado central y más complejo de un
sistema informático. A modo de ilustración, se le suele llamar por analogía el “cerebro” de una computadora.
El microprocesador está conectado generalmente mediante un zócalo
específico de la placa base de la computadora; normalmente para
su correcto y estable funcionamiento, se le incorpora un sistema de
refrigeración que consta de un disipador de calor fabricado en algún
material de alta conductividad térmica, como cobre o aluminio, y de
uno o más ventiladores que eliminan el exceso del calor absorbido
por el disipador. Entre el disipador y la cápsula del microprocesador
usualmente se coloca pasta térmica para mejorar la conductividad del
calor. Existen otros métodos más eficaces, como la refrigeración líquida o
el uso de células peltier para refrigeración extrema, aunque estas técnicas se
utilizan casi exclusivamente para aplicaciones especiales, tales como en las
prácticas de overclocking.
Desempeño de un microprocesador
La potencia de una CPU se mide por la velocidad y la cantidad de datos que
puede procesar. La velocidad de una CPU se mide en ciclos por segundo. La
velocidad de las CPU actuales se calcula en millones de ciclos por segundo, llamados megahertz (MHz), o en
miles de millones de ciclos por segundo, llamados gigahertz (GHz). La cantidad de datos que puede procesar una CPU a la vez depende del tamaño del bus de datos del procesador. Éste también se denomina bus de
CPU o bus frontal (FSB). Cuanto mayor es el ancho del bus de datos del procesador, mayor potencia tiene el
procesador. Los procesadores actuales tienen un bus de datos del procesador de 32 bits o de 64 bits.
La sobreaceleración (overclocking) es una técnica usada para lograr que un procesador funcione a una
velocidad mayor que su especificación original. La sobreaceleración no es una forma confiable de mejorar el
rendimiento de la computadora y puede ocasionar daños en la CPU, siendo desaconsejable su realización. El
desempeño o la velocidad de un procesador depende de, entre muchos otros factores, la velocidad del reloj
(generalmente dada en múltiplos de hertz) y las instrucciones por ciclo de reloj (IPC), que juntos son los
factores para las instrucciones por segundo (IPS) que el CPU puede rendir.
El desempeño de procesamiento de las computadoras se incrementa utilizando procesadores multinúcleo,
que en esencia es conectar dos o más procesadores individuales (llamados núcleos en este sentido) en un
solo circuito integrado.11 Idealmente, un procesador de doble núcleo sería casi dos veces tan potente como
un procesador de núcleo único. En la práctica, la ganancia de desempeño es mucho menor, sólo alrededor
del 50%, [cita requerida] debido a la implementación de algoritmos imperfectos de software. El aumento
del número de núcleos en un procesador (es decir, dual-core, quad-core, etc) aumenta la carga de trabajo
que se puede manejar. Esto significa que el procesador ahora puede manejar numerosos eventos asíncronos,
interrupciones, etc que pueden tomar un peaje en la CPU (Central Processing Unit) cuando se abruma. Estos
núcleos pueden considerarse como diferentes plantas en una planta de procesamiento, con el manejo de cada
piso una tarea diferente. En ocasiones, estos núcleos se manejan las mismas tareas que los núcleos adyacentes
a ellos si un solo núcleo no es suficiente para manejar la información.
8
La tecnología de los circuitos de estado sólido evolucionó en la década de 1950. El empleo del silicio (Si),
de bajo costo y con métodos de producción masiva, hicieron del transistor el componente más usado para
el diseño de circuitos electrónicos. Por lo tanto el diseño de la computadora digital se reemplazo del tubo al
vacío por el transistor, a finales de la década de 1950.
El primer microprocesador fue el Intel 4004,1 producido en 1971. Se desarrolló originalmente para una
calculadora y resultó revolucionario para su época. Contenía 2.300 transistores, era un microprocesador de
arquitectura de 4 bits que podía realizar hasta 60.000 operaciones por segundo trabajando a una frecuencia
de reloj de alrededor de 700 KHz.
Intel 4004
1º microprocesador del
mundo
En la actualidad, además de los ventiladores de chasis, un disipador de calor elimina el calor del núcleo de
la CPU. Un ventilador en la parte superior del disipador de calor empuja el calor hacia fuera de la CPU.
Otros componentes también son vulnerables al daño por calor y a veces están equipados con ventiladores.
Las tarjetas adaptadoras de vídeo también producen una gran cantidad de calor. Los ventiladores se dedican
a enfriar la unidad de procesamiento de gráficos (GPU).
Las computadoras con CPU y GPU extremadamente rápidas pueden usar un sistema de refrigeración por
agua. Se coloca una placa metálica sobre el procesador y se bombea agua hacia la parte superior para juntar
el calor que produce la CPU. El agua es bombeada hacia un radiador, donde es enfriada por el aire, y luego
vuelve a circular.
9
Arquitectura de microprocesadores
La CPU ejecuta un programa, que es una secuencia de instrucciones almacenadas. Cada modelo de
procesador tiene un conjunto de instrucciones, que ejecuta. La CPU ejecuta el programa procesando cada
fragmento de datos según lo indicado por el programa y el conjunto de instrucciones. Mientras la CPU
ejecuta un paso del programa, las instrucciones y los datos restantes se almacenan cerca, en una memoria
especial llamada caché. Existen dos arquitecturas principales de CPU relacionadas con conjuntos de
instrucciones:
CISC (Complex Instruction Set Computer) y
RISC (Reduced Instruction Set Computer).
Los microprocesadores CISC tienen un conjunto de instrucciones que se caracteriza por ser muy amplio y
permitir operaciones complejas entre operandos situados en la memoria o en los registros internos. Este tipo
de arquitectura dificulta el paralelismo entre instrucciones, por lo que, en la actualidad, la mayoría de los
sistemas CISC de alto rendimiento implementan un sistema que convierte dichas instrucciones complejas en
varias instrucciones simples del tipo RISC, llamadas generalmente microinstrucciones.
El nombre CISC apareció por contraposición a RISC cuando apareció esta nueva arquitectura de diseño
(finales 1980).
Algunos chips que usan la arquitectura CISC son: Motorola 68000, Zilog Z80 y toda la familia Intel x86 y
AMD.
Por otro lado, RISC -llamada a veces carga/descarga- es una filosofía de diseño de CPU para computadora
que está a favor de conjuntos de instrucciones pequeños y simples que se ejecutan más rápidamente y
acceden a registros internos. Esta filosofía proviene del hecho de que muchas de las características de los
diseños de las CPU estaban siendo ignoradas por los programas que eran ejecutados en ellas, principalmente
por una simplificación de los compiladores que tienden a utilizar siempre las mismas instrucciones. Además,
la velocidad del procesador en relación con la memoria de la computadora que accedía era cada vez más alta,
por lo que se decidió reducir los accesos a memoria. Esto llevó a la aparición de RISC que utiliza diversas
técnicas para reducir el procesamiento dentro del CPU, así como de reducir el número total de accesos a
memoria.
Algunos chips que usan la arquitectura RISC son: PA-RISC de HP, MIPS1 en equipos SGI y consolas
Nintendo64 y PlayStation; Sun SPARC; Motorola PowerPC o ARM usados en dispositivos móviles Nokia,
Nintendo DS, Palm...
Algunas CPU incorporan hyperthreading para mejorar el rendimiento. Con el hyperthreading, la CPU tiene
varios fragmentos de código que son ejecutados simultáneamente en cada canal. Para un sistema operativo,
una CPU única con hyperthreading parece ser dos CPU.
Los microprocesadores disponen de registros internos de memoria que permiten reducir el tiempo medio de
acceso a memoria. Este conjunto de registros se conoce como memoria caché y es más rápida y más pequeña
que la memoria principal. Además puede organizarse jerárquicamente por niveles siendo L1 (Level 1) el
primer nivel consultado, el más rápido y el más pequeño. Algunos micros pueden tener hasta tres niveles de
memoria caché (L1-L3).
Dependiendo de la configuración de la memoria caché el procesador busca los registros primero en L1,
después en L2, L3... después en la memoria principal y por último en la memoria virtual (swap).
Los componentes electrónicos generan calor. El calor es causado por el flujo de corriente dentro de los
componentes. Los componentes de la computadora funcionan mejor cuando se mantienen fríos. Si no se
elimina el calor, la computadora puede funcionar a una velocidad más lenta. Si se acumula mucho calor, los
componentes de la computadora pueden dañarse. El aumento del flujo de aire en el chasis de la computadora
permite eliminar más calor. Un ventilador de chasis, como se muestra en la Figura 1, se instala en el chasis de
la computadora para aumentar la eficacia del proceso de refrigeración.
10
Placa Base ( MotherBoard)
La placa base, también conocida como placa madre (motherboard), es una tarjeta de circuito impreso a la
que se conectan los componentes que constituyen la computadora.
Es una parte fundamental para armar
cualquier computadora personal de
escritorio o portátil. Tiene instalados una
serie de circuitos integrados, entre los que
se encuentra el circuito integrado auxiliar
(chipset), que sirve como centro de conexión
entre el microprocesador (CPU), la memoria
de acceso aleatorio (RAM), las ranuras de
expansión y otros dispositivos.
Va instalada dentro de una carcasa o gabinete
que por lo general está hecha de chapa y tiene
un panel para conectar dispositivos externos
y muchos conectores internos y zócalos para
instalar componentes internos.
La placa madre, además incluye un firmware llamado BIOS, que le permite realizar las funcionalidades
básicas, como pruebas de los dispositivos, vídeo y manejo del teclado, reconocimiento de dispositivos y carga
del sistema operativo.
Componentes de una motherboard
Una placa base típica admite los siguientes componentes:
• Zócalo de CPU (monoprocesador) o zócalos de CPU (multiprocesador).
• Chipset.
• Ranuras de RAM.
• Conectores de alimentación de energía eléctrica.
El zócalo(socket) de la CPU es el conector que actúa como interfaz entre la motherboardy el procesador
mismo. La mayoría de los sockets y los procesadores de CPU que se utilizan hoy se construyen sobre la
arquitectura de la matriz de rejilla de pines (PGA, pin grid array), en la cual los pines de la parte inferior del
procesador están insertados en el socket, habitualmente con una fuerza de inserción cero (ZIF). ZIF se refiere
a la cantidad de fuerza necesaria para instalar una CPU en el socket o la ranura de la motherboard.
Principales zocalos
AMD
Socket AM3, Socket AM3+, Socket FM1, Socket FM2.
INTEL
LGA 1150, LGA 1155, LGA 1156, LGA 2011, LGA 1366.
11
La tecnología de procesador más reciente ha llevado a los fabricantes de CPU a buscar maneras de incorporar
más de un núcleo de CPU en un único chip. Muchas CPU son capaces de procesar múltiples instrucciones al
mismo tiempo:
CPU de núcleo único: Un núcleo dentro de un único chip de CPU que maneja todas las capacidades de
procesamiento. Un fabricante de motherboards puede proporcionar sockets para más de un procesador, lo
cual brinda la posibilidad de construir una computadora de alta potencia con múltiples procesadores.
CPU de doble núcleo: Dos núcleos dentro de un chip de CPU único en el cual ambos núcleos pueden
procesar información al mismo tiempo.
Chipset
El chipset es una serie o conjunto de circuitos electrónicos, que gestionan las transferencias de datos entre los
diferentes componentes de la computadora (procesador, memoria, tarjeta gráfica, unidad de almacenamiento
secundario, etcétera).
El chipset, generalmente se divide en dos secciones:
1. puente norte (northbridge): gestiona la interconexión entre el microprocesador, la memoria RAM y la
unidad de procesamiento gráfico
2. puente sur (southbridge): gestiona la interconexión entre los periféricos y los dispositivos de almacenamiento, como los discos duros o las unidades de disco óptico.
Las nuevas líneas de procesadores de escritorio tienden a integrar el propio controlador de memoria dentro
del procesador.
Ranuras de RAM
Las placas bases constan de ranuras (slots) de memoria de acceso aleatorio, su número es de 2 a 6 ranuras en
una misma placa base común.
En ellas se insertan dichas memorias del tipo conveniente dependiendo de la velocidad, capacidad y fabricante requeridos según la compatibilidad de cada placa base y la CPU.
La memoria de acceso aleatorio (RAM) es la ubicación de almacenamiento temporal para datos y programas
a los que accede la CPU. Esta memoria es volátil; por lo tanto, su contenido se elimina cuando se apaga la
computadora. Cuanta más RAM tenga una computadora, mayor capacidad tendrá para almacenar y procesar
programas y archivos de gran tamaño, además de contar con un mejor rendimiento del sistema.
Las primeras computadoras tenían una RAM instalada en la motherboard como chips individuales. Los chips
de memoria individuales, llamados paquete dual en línea (DIP, Dual inline package), eran difíciles de instalar
y a menudo se soltaban de la motherboard. Para resolver este problema, los diseñadores soldaron los chips de
memoria en una placa de circuito especial llamada módulo de memoria.
Conectores de alimentación
A través de varios conectores de alimentación eléctrica se proporciona a la placa base los diferentes voltajes e
intensidades necesarios para su funcionamiento.
La placa madre recibe los diferentes valores de tensión provisto por la fuente de alimentación.
Cada cable de color indica el valor de tensión que brinda:
- Rojo ->
+5V
- Amarillo ->
+12V- Azul->
-12V
- Naranja
->
+3.3V
- Negro
->
0V (GND)
12
Conector principal de alimentación ( 20 + 4 pin)
Conjunto de conectores
13
Otros componentes importantes
El reloj (clock): regula la velocidad de ejecución de las instrucciones del microprocesador y de los periféricos
internos.
El BIOS: un programa registrado en una memoria no volátil (antiguamente en memorias ROM, pero desde hace tiempo se emplean memorias flash). Este programa es específico de la placa base y se encarga de la
interfaz de bajo nivel entre el microprocesador y algunos periféricos. Recupera, y después ejecuta, las instrucciones del registro de arranque principal (Master Boot Record, MBR), o registradas en un disco duro o un
dispositivo de estado sólido, cuando arranca el sistema operativo.
Actualmente, las computadoras modernas sustituyen el MBR por la tabla de particiones GUID (GPT) y el
BIOS por Extensible Firmware Interface (EFI).
El bus frontal o bus delantero (front-side bus o FSB): también llamado “bus interno”, conecta el microprocesador al chipset. Está cayendo en desuso frente a HyperTransport y Quickpath.
El bus de memoria conecta el chipset a la memoria temporal.
El bus de expansión (también llamado bus E/S): une el microprocesador a los conectores de entrada/salida y
a las ranuras de expansión.
Los conectores de entrada/salida, incluyendo:
Los puertos serie, para conectar dispositivos por protocolo RS232.
Los puertos paralelos, para la conexión de impresoras antiguas. (EN DESUSO)
Los puertos PS/2 para conectar teclado y ratón; estas interfaces ya han sido practicamente sustituidas por
conectores USB.
Los puertos USB (en inglés Universal Serial Bus), por ejemplo, para conectar diferentes periféricos, como por
ejemplo: mouse, teclado, memoria USB, teléfonos inteligentes, impresoras.
Los conectores RJ-45, para conectarse a una red informática.
Los conectores VGA, DVI, HDMI o DisplayPort para la conexión del monitor de computadora o proyector
de vídeo.
Los conectores IDE o Serial ATA, para conectar dispositivos de almacenamiento, tales como discos duros
(HDD), dispositivos de estado sólido (SDD) y unidades de disco óptico.
Los conectores jacks de audio para conectar por ejemplo: altavoces y auriculares (código de color: verde), y
micrófonos (código de color: rosado).
Las ranuras de expansión: se trata de receptáculos (slots) que pueden acoger placas o tarjetas de expansión
(estas tarjetas se utilizan para agregar características o aumentar el rendimiento de la computadora; por
ejemplo, una tarjeta gráfica se puede añadir para mejorar el rendimiento 3D). Estos puertos pueden ser
puertos:
ISA (Industry Standard Architecture) interfaz antigua,
PCI (Peripheral Component Interconnect),
AGP (Accelerated Graphics Port) y,
PCIe o PCI-Express, son los más recientes.
Con la evolución de las computadoras, más y más características se han integrado en la placa base, tales como
circuitos electrónicos para la gestión del vídeo, de sonido o de redes, evitando así la adición de tarjetas de
expansión:
interfaz gráfica integrada o unidad de procesamiento gráfico (GPU, Graphics Processing Unit, o IGP,
Integrated Graphic Processor); interfaz integrada de audio o sonido; interfaz integrada Ethernet o puertos de
red integrados ((10/100 Mbit/s)/(1 Gbit/s)).
14
Formatos de la motherboard
Las tarjetas madre necesitan tener dimensiones compatibles con las cajas que las contienen, de manera que
desde los primeros computadores personales se han establecido características mecánicas, llamadas factor de
forma. Definen la distribución de diversos componentes y las dimensiones físicas, como por ejemplo el largo
y ancho de la tarjeta, la posición de agujeros de sujeción y las características de los conectores.
15
Memoria RAM ( Random-Access-Memory)
La memoria de acceso aleatorio (Random-Access Memory, RAM) se utiliza como memoria de trabajo de
computadoras para el sistema operativo, los programas y la mayor parte del software.
La memoria de acceso aleatorio (RAM: Random Access Memory) es una memoria volátil -la información se
pierde si dejan de recibir electricidad- de acceso aleatorio.
En la RAM se cargan todas las instrucciones que ejecutan la unidad central de procesamiento (procesador) y
otras unidades de cómputo.
Se denominan «de acceso aleatorio» porque se puede leer o escribir en una posición de memoria con un
tiempo de espera igual para cualquier posición, no siendo necesario seguir un orden para acceder (acceso
secuencial) a la información de la manera más rápida posible.
Durante el encendido de la computadora, la rutina POST verifica que los módulos de RAM estén conectados
de manera correcta. En el caso que no existan o no se detecten los módulos, la mayoría de tarjetas madres
emiten una serie de sonidos que indican la ausencia de memoria principal. Terminado ese proceso, la
memoria BIOS puede realizar un test básico sobre la memoria RAM indicando fallos mayores en la misma.
Las memorias en sus orígenes
Uno de los primeros tipos de memoria RAM fue la memoria de núcleo magnético, desarrollada entre 1949
y 1952 y usada en muchos computadores hasta el desarrollo de circuitos integrados a finales de los años 60 y
principios de los 70.
16
Las memorias actuales
Físicamente está formada por módulos con chips tipo SMD (Superficial Mounted Device) bien por una sola
cara (SIMM: Single In-line Memory Module) bien por las dos caras (DIMM: Dual In-line Memory Module).
Las memorias RAM que se usan en los PCs actuales son dinámicas (necesitan refresco para no perder la
información) y síncronas (trabajan en base a una señal de reloj) por lo que se llaman SDRAM (Synchronous
Dynamic RAM).
El bus que conecta el procesador con la memoria se denomina FSB (Front Side Bus) y depende del GMCH
(NorthBridge) del chipset de la placa. La velocidad del FSB es una característica de cada procesador pero es
independiente de la velocidad del mismo. Por ejemplo: Pentium 4, FSB= 400MHz; Athlon XP, FSB= 266MHz.
El ancho de banda de pico es la velocidad máxima de transferencia no sostenida posible. Se calcula multiplicando la frecuencia del bus por el ancho de bytes por el número de transferencias en cada ciclo de reloj.
Así por ejemplo una memoria DDR (dos transferencias por ciclo), con frecuencia de 100 Mhz y un ancho de
bus de 64 bits (8 bytes) tendrá un ancho de banda de pico de: 2*100*8 = 1600 MB/s.
Para hacer referencia a las memorias se utilizan dos nomenclaturas diferentes. Una hace referencia al FSB
efectivo -característico de los chips- (DDR-200) y otra hace referencia al ancho de banda de pico, a veces
redondeado, -característico de los módulos- (PC-1600).
La latencia es el tiempo que la memoria emplea desde que se solicita una lectura hasta que ofrece el dato
correspondiente; por tanto, no todos los ciclos de reloj son productivos. Cuanto menor sea la latencia más rápida es la memoria. A veces es mejor disponer de una baja latencia que de un ancho de banda de pico mayor.
– SDR: se indica según el valor “latencia de CAS” (CL), los valores posibles son 2 y 3 (CL2, CL3).
– RDRAM: alta latencia, depende del número de chips.
– DDR: igual que SDR; los valores posibles son 2 y 2.5 (CL2, CL2.5).
– DDR2: igual que DDR; los valores posibles son 3, 4, 5, 6 y 7.
– DDR3: igual que DDR; los valores posibles son 5, 6, 7 y 9.
DUAL-CHANNEL
Algunas placas que utilizan módulos DDR pueden configurarse como “Dual Memory Channel” (2 bancos
de varias bahías o “slots”, generalmente dos). Trabajando en modo bicanal, el controlador de memoria puede
acceder a dos módulos a la vez, mejorando la latencia y la velocidad de transferencia teórica.
Esto se consigue mediante un segundo controlador de memoria en el NorthBrigde. No obstante, suele obligar
a emplear módulos idénticos dentro del mismo canal.
Esta tecnología afecta por tanto al bus de la memoria (la placa), no a la memoria en sí (los módulos).
17
ARIANTES COMERCIALES
a) SIMM
Las memorias montadas en SIMM (Single In-line Memory Module) han quedado obsoletas. Comercialmente se utilizaron módulos de 30 pines con un ancho de 8 bits y posteriormente módulos de 72 pines con un
ancho de 32 bits y un pin-out.
b) SDR SDRAM
La memoria SDR (Single Date Rate) fue la primera memoria en montarse en DIMMs por lo que inicialmente
se le conocía simplemente como “memoria DIMM”, sin embargo esta denominación es confusa ya que todas
las memorias posteriores también se han montado en DIMMs.
El ancho de bus es de 64 bits (8 bytes) y trabaja a una transferencia por ciclo.
c) DDR SDRAM
La memoria DDR (Dual Date Rate) trabaja a dos transferencias por ciclo. Para ello utiliza búferes que añaden
latencia.
Fue adoptada primero por AMD. Se comercializan módulos de hasta 1GB.
El ancho de bus es de 64 bits (8 bytes) y trabaja a dos transferencias por ciclo.
d) RDRAM
La memoria RDRAM obtiene un FSB efectivo de 400 MHz para una frecuencia de reloj de 100 MHz “quad
dumped”.
El ancho de bus es de 16 bits (2 bytes) pero se usa en configuración de doble canal, obteniendo un ancho de
32 bits (4 bytes) y trabaja a dos transferencias por ciclo.
Esta memoria se monta en módulos RIMM (Rambus In-line Memory Module) con chips por ambas caras y
disipador incorporado. En las ranuras libres de la pl aca base deben colocarse módulos CRIMM (Continuity
RIMM).
18
e) DDR2 SDRAM
La memoria DDR2 es una evolución de DDR, pero incompatible con ella. El pin-out queda en otra posición
para evitar confusiones. Utiliza un bufer de 4 bits lo que hace que tenga mayor latencia que DDR. Sin embargo trabaja con buses más rápidos y a menor potencia. Se comercializan módulos de hasta 2x2GB.
El ancho de bus es de 64 bits (8 bytes) y trabaja a cuatro transferencias por ciclo.
f) DDR3 SDRAM
La memoria DDR3 es una evolución de DDR2, pero incompatible con ella. El pin-out queda en otra posición
para evitar confusiones. Utiliza un bufer de 8 bits lo que hace que tenga mayor latencia que DDR2. Sin embargo trabaja con buses más rápidos y a menor potencia. Se comercializan módulos de hasta 8GB.
El ancho de bus es de 64 bits (8 bytes) y trabaja a ocho transferencias por ciclo.
Las memorias SO-DIMM (Small Outline DIMM) consisten en una versión
compacta de los módulos DIMM convencionales. Debido a su tamaño tan
compacto, estos módulos de memoria suelen emplearse en computadores
portátiles, PDAs y notebooks, aunque han comenzado a sustituir a los
SIMM/DIMM en impresoras de gama alta y tamaño reducido y en equipos
con placa base miniatura (Mini-ITX).
19
Disco rígido ( Hard Disk Drive)
En informática, la unidad de disco duro o unidad de disco rígido (en inglés: Hard Disk Drive, HDD) es el
dispositivo de almacenamiento de datos que emplea un sistema de grabación magnética para almacenar
datos digitales. Se compone de uno o más platos o discos rígidos, unidos por un mismo eje que gira a gran
velocidad dentro de una caja metálica sellada. Sobre cada plato, y en cada una de sus caras, se sitúa un cabezal
de lectura/escritura que flota sobre una delgada lámina de aire generada por la rotación de los discos. Es
memoria no volátil.
El primer disco duro fue inventado por IBM en
1956. A lo largo de los años, los discos duros han
disminuido su precio al mismo tiempo que han
multiplicado su capacidad, siendo la principal opción
de almacenamiento secundario para PC desde su
aparición en los años 1960.1 Los discos duros han
mantenido su posición dominante gracias a los
constantes incrementos en la densidad de grabación,
que se ha mantenido a la par de las necesidades de
almacenamiento secundario.1
Los tamaños también han variado mucho, desde
los primeros discos IBM hasta los formatos
estandarizados actualmente: 3,5 " los modelos para
PC y servidores, 2,5 " los modelos para dispositivos
portátiles. Todos se comunican con la computadora
a través del controlador de disco, empleando una
interfaz estandarizado. Los más comunes hasta
los años 2000 han sido IDE (también llamado ATA o PATA), SCSI (generalmente usado en servidores y
estaciones de trabajo). Desde el 2000 en adelante ha ido masificándose el uso de los Serial ATA. Existe
además FC (empleado exclusivamente en servidores).
Para poder utilizar un disco duro, un sistema operativo debe aplicar un formato de bajo nivel que defina
una o más particiones. La operación de formateo requiere el uso de una fracción del espacio disponible en
el disco, que dependerá del formato empleado. Además, los fabricantes de discos duros, unidades de estado
sólido y tarjetas flash miden la capacidad de los mismos usando prefijos SI, que emplean múltiplos de
potencias de 1000 según la normativa IEC y IEEE, en lugar de los prefijos binarios, que emplean múltiplos
de potencias de 1024, y son los usados por sistemas operativos de Microsoft. Esto provoca que en algunos
sistemas operativos sea representado como múltiplos 1024 o como 1000, y por tanto existan confusiones, por
ejemplo un disco duro de 500 GB, en algunos sistemas operativos será representado como 465 GiB (es decir
gibibytes; 1 GiB = 1024 MiB) y en otros como 500 GB.
Estructura lógica
Dentro del disco se encuentran:
• El registro de arranque principal (Master Boot Record, MBR), en el bloque o sector de arranque, que
contiene la tabla de particiones.
• Las particiones de disco, necesarias para poder colocar los sistemas de archivos.
20
Dentro de la unidad de disco duro hay uno o varios discos (de aluminio o cristal) concéntricos llamados
platos (normalmente entre 2 y 4, aunque pueden ser hasta 6 o 7 según el modelo), y que giran todos a la vez
sobre el mismo eje, al que están unidos. El cabezal (dispositivo de lectura y escritura) está formado por un
conjunto de brazos paralelos a los platos, alineados verticalmente y que también se desplazan de forma simultánea, en cuya punta están las cabezas de lectura/escritura. Por norma general hay una cabeza de lectura/
escritura para cada superficie de cada plato. Los cabezales pueden moverse hacia el interior o el exterior de
los platos, lo cual combinado con la rotación de los mismos permite que los cabezales puedan alcanzar cualquier posición de la superficie de los platos.
Cada plato posee dos “ojos”, y es necesaria una cabeza de lectura/escritura para cada cara. Si se observa el
esquema Cilindro-Cabeza-Sector, a primera vista se ven 4 brazos, uno para cada plato. En realidad, cada uno
de los brazos es doble, y contiene 2 cabezas: una para leer la cara superior del plato, y otra para leer la cara
inferior. Por tanto, hay 8 cabezas para leer 4 platos, aunque por cuestiones comerciales, no siempre se usan
todas las caras de los discos y existen discos duros con un número impar de cabezas, o con cabezas deshabilitadas. Las cabezas de lectura/escritura nunca tocan el disco, sino que pasan muy cerca (hasta a 3 nanómetros), debido a una finísima película de aire que se forma entre éstas y los platos cuando éstos giran (algunos
discos incluyen un sistema que impide que los cabezales pasen por encima de los platos hasta que alcancen
una velocidad de giro que garantice la formación de esta película). Si alguna de las cabezas llega a tocar una
superficie de un plato, causaría muchos daños en él, rayándolo gravemente, debido a lo rápido que giran los
platos (uno de 7.200 revoluciones por minuto se mueve a 129 km/h en el borde de un disco de 3,5 pulgadas).
Hay varios conceptos para referirse a zonas del
disco:
Plato: cada uno de los discos que hay dentro de la
unidad de disco duro.
Cara: cada uno de los dos lados de un plato.
Cabezal: número de cabeza o cabezal por cada cara.
Pista: una circunferencia dentro de una cara; la pista
cero (0) está en el borde exterior.
Cilindro: conjunto de varias pistas; son todas las
circunferencias que están alineadas verticalmente (una
de cada cara).
Sector : cada una de las divisiones de una pista.
El tamaño del sector no es fijo, siendo el estándar
actual 512 bytes, aunque la IDEMA ha creado un comité que impulsa
llevarlo a 4 KiB. Antiguamente el número de sectores por pista era fijo, lo
cual desaprovechaba el espacio significativamente, ya que en las pistas exteriores pueden almacenarse más
sectores que en las interiores. Así, apareció la tecnología grabación de bits por zonas (Zone Bit Recording,
ZBR) que aumenta el número de sectores en las pistas exteriores, y utiliza más eficientemente el disco duro.
Así las pistas se agrupan en zonas de pistas de igual cantidad de sectores. Cuanto más lejos del centro de cada
plato se encuentra una zona, ésta contiene una mayor cantidad de sectores en sus pistas. Además mediante
ZBR, cuando se leen sectores de cilindros más externos la tasa de transferencia de bits por segundo es mayor;
por tener la misma velocidad angular que cilindros internos pero mayor cantidad de sectores.
Sector geométrico: son los sectores contiguos pero de pistas diferentes.
Clúster: es un conjunto de sectores.
21
Fuente de alimentación
En electrónica, la fuente de alimentación es el dispositivo que convierte la corriente alterna (CA), en una o
varias corrientes continuas (CC), que alimentan los distintos circuitos del aparato electrónico al que se conecta (computadora, televisor, impresora, router, etcétera).
En inglés se conoce como power supply unit (PSU), que literalmente traducido significa: unidad de fuente de
alimentación, refiriéndose a la fuente de energía eléctrica.
Las fuentes de alimentación para dispositivos electrónicos, pueden clasificarse básicamente como fuentes de
alimentación lineales y conmutadas. Las lineales tienen un diseño relativamente simple, que puede llegar a
ser más complejo cuanto mayor es la corriente que deben suministrar, sin embargo su regulación de tensión
es poco eficiente. Una fuente conmutada, de la misma potencia que una lineal, será más pequeña y normalmente más eficiente pero será más compleja y por tanto más susceptible a averías.
22
Conectores de la fuente de alimentación
Una PC moderna debe poseer una fuente de alimentación que le brinde entre 650W y 800W dependiendo el
consumo y grado de exigencia y procesamiento que requiera.
23
Fuentes de alimentación lineales
Las fuentes lineales siguen el esquema: transformador, rectificador, filtro, regulación y salida.
En primer lugar el transformador adapta los niveles de tensión y proporciona aislamiento galvánico. El circuito que convierte la corriente alterna en corriente continua pulsante se llama rectificador, después suelen
llevar un circuito que disminuye el rizado como un filtro de condensador. La regulación, o estabilización de
la tensión a un valor establecido, se consigue con un componente denominado regulador de tensión, que no
es más que un sistema de control a lazo cerrado (“realimentado”, figura 3) que en base a la salida del circuito
ajusta el elemento regulador de tensión que en su gran mayoría este elemento es un transistor. Este transistor
que dependiendo de la tipología de la fuente está siempre polarizado, actúa como resistencia regulable mientras el circuito de control juega con la región activa del transistor para simular mayor o menor resistencia y
por consecuencia regulando el voltaje de salida. Este tipo de fuente es menos eficiente en la utilización de la
potencia suministrada dado que parte de la energía se transforma en calor por efecto Joule en el elemento
regulador (transistor), ya que se comporta como una resistencia variable. A la salida de esta etapa a fin de
conseguir una mayor estabilidad en el rizado se encuentra una segunda etapa de filtrado (aunque no obligatoriamente, todo depende de los requerimientos del diseño), esta puede ser simplemente un condensador.
Esta corriente abarca toda la energía del circuito, para esta fuente de alimentación deben tenerse en cuenta
unos puntos concretos a la hora de decidir las características del transformador.
Fuentes de alimentación conmutadas
Una fuente conmutada es un dispositivo electrónico que transforma energía eléctrica mediante transistores
en conmutación. Mientras que un regulador de tensión utiliza transistores polarizados en su región activa de
amplificación, las fuentes conmutadas utilizan los mismos conmutándolos activamente a altas frecuencias
(20-100 kHz típicamente) entre corte (abiertos) y saturación (cerrados). La forma de onda cuadrada resultante se aplica a transformadores con núcleo de ferrita (Los núcleos de hierro no son adecuados para estas altas
frecuencias) para obtener uno o varios voltajes de salida de corriente alterna (CA) que luego son rectificados
(con diodos rápidos) y filtrados (inductores y condensadores) para obtener los voltajes de salida de corriente
continua (CC). Las ventajas de este método incluyen menor tamaño y peso del núcleo, mayor eficiencia y por
lo tanto menor calentamiento. Las desventajas comparándolas con fuentes lineales es que son más complejas
y generan ruido eléctrico de alta frecuencia que debe ser cuidadosamente minimizado para no causar interferencias a equipos próximos a estas fuentes.
Las fuentes conmutadas tienen por esquema: rectificador, conmutador, transformador, otro rectificador y
salida.
La regulación se obtiene con el conmutador, normalmente un circuito PWM (pulse width modulation) que
cambia el ciclo de trabajo. Aquí las funciones del transformador son las mismas que para fuentes lineales
pero su posición es diferente. El segundo rectificador convierte la señal alterna pulsante que llega del transformador en un valor continuo. La salida puede ser también un filtro de condensador o uno del tipo LC.
Las ventajas de las fuentes lineales son una mejor regulación, velocidad y mejores características EMC. Por
otra parte las conmutadas obtienen un mejor rendimiento, menor coste y tamaño.
24
Unidad lectora de discos (CD, DVD & Blu-Ray)
Es un dispositivo que realiza las operaciones de lectura y escritura de los medios o soportes de
almacenamiento con forma de disco, más específicamente a las unidades de disco duro, unidades de
discos flexibles (disquetes de 5¼" y de 3½"), unidades de discos ópticos (CD, DVD, HD DVD o Bluray).
Una unidad de disco cuenta con un motor
que hace funcionar un sistema de arrastre
que hace girar uno o varios discos a una
velocidad constante, al tiempo que un
mecanismo de posicionamiento sitúa la
cabeza o cabezas sobre la superficie del
disco para permitir la reproducción o
grabación del disco. La rotación del disco
puede ser constante o parar de forma
alternada.
El almacenamiento óptico se basa en discos de policarbonato donde la información se guarda sobre
la superficie del disco mediante marcas formando un surco en espiral que comienza en el interior del
disco. Este surco se ilumina con un haz de láser y las marcas modifican su reflejo. Pueden utilizarse
ambas caras del disco y en una misma cara diferentes capas
Los primeros CDs (Compact-Disc) fueron diseñados para audio y tenían una tasa de transferencia
de 150 KB/s con Velocidad Lineal Constante de 1’2 m/s, modificando la velocidad de rotación del
motor según la posición del cabezal. Este sistema permite maximizar el espacio pero en la práctica
solo permite búsquedas aleatorias hacia adelante. Además a grandes velocidades de rotación se
vuelve impráctico. Actualmente los CDs de datos y el resto de unidades ópticas utilizan un sistema
de Velocidad Angular Constante.
Los CDs escriben sus datos mediante una transformación de 8 bits en 14 llamada EFM (Eightto-Fourteen Modulation) que persigue limitar la componente continua de los datos. En DVDs se
utiliza EFMPlus que es una transformación de 8 bits en 16. Además utilizan códigos de corrección
de errores. La capacidad de una capa de un disco óptico viene determinada por el tamaño de su
superficie, el grosor del surco y la longitud de las marcas. Así un CD tiene un diámetro de 5” (con
una perforación central de 15 mm ), un surco de 1,65 μm y utiliza un láser rojo de 0,78 μm lo que
permite 700 MB de datos o unos 80 minutos de sonido a una VLC de 1,2 m/s.
El DVD (Digital Versatile Disc) tiene la apariencia de un CD pero utiliza un láser rojo de 0,65 μm
con una capacidad estándar (DVD-5: monocara y monocapa) de 4’7 GB y velocidad de transferencia
base de 1.350 KB/s. A diferencia del CD que permite diferentes sistemas de ficheros (ISO 9660, Juliet
/ Romeo, Rock Ridge, HFS... más formato Audio), DVD solo utiliza un sistema de ficheros, el UDF
(Universal Disk Format), una extensión del estándar ISO 9660.
Los dispositivos “Blue-Ray” utilizan un láser azul de 405 nanómetros con una capacidad de 25 GB
por capa y una velocidad de transferencia de 4’5 MB/s.
25
Mecanismo y lente de la unidad lectora
CD
DVD
26
BlueRay
Placa de video
Una tarjeta gráfica es una tarjeta de expansión o un circuito integrado (chip), de la placa base de la computadora, que se encarga de procesar los datos provenientes de la unidad central de procesamiento (CPU) y
transformarlos en información comprensible y representable en el dispositivo de salida (por ejemplo: monitor, televisor o proyector).
Es habitual que se utilice el mismo
término, para las tarjetas dedicadas y
separadas (tarjeta de expansión), y para
los chips de las unidades de procesamiento gráfico (GPU) integrados en la
placa base.
Algunas tarjetas gráficas han ofrecido
funcionalidades añadidas como sintonización de televisión, captura de vídeo,
decodificación2 MPEG-2 y MPEG-4, o
incluso conectores IEEE 1394 (Firewire), de mouse, lápiz óptico o joystick.
Las tarjetas gráficas más comunes son
las disponibles para las computadoras
compatibles con la IBM PC, debido a
la enorme popularidad de estas, pero
otras arquitecturas también hacen uso de este tipo de dispositivos.
Las tarjetas gráficas no son dominio exclusivo de los computadoras personales (PC) IBM compatibles;
contaron o cuentan con ellas dispositivos como por ejemplo: Commodore Amiga (conectadas mediante las
ranuras Zorro II y Zorro III), Apple II, Apple Macintosh, Spectravideo SVI-328, equipos MSX y en las videoconsolas modernas, como la Wii U, la PlayStation 4 y la Xbox One.
27
DEFINICIONES
● Resolución: Número de puntos que es capaz de representar por pantalla una tarjeta de vídeo representada
como matriz Horizontal x Vertical.
● Profundidad de color: La profundidad de color indica el número de bits utilizados en la tarjeta para
representar cada color RGB por pantalla, expresada en bits (actualmente 16 o 32). El número de colores
disponibles más habitualmente son: 1 color (monocromo), 16 colores, 256 colores, Color de alta densidad (16
bits) y Color verdadero (32 bits).
● Color verdadero: Es una profundidad de color de 8 bits asociados para cada color RGB (24 bits) más 8 bits
de control (en total 32 bits). Esto permite más de 16,7 millones de colores para cada píxel. Se denomina color
verdadero (Truecolor) debido a que es aproximadamente el número de colores que el ojo humano puede
detectar. Los 8 bits extra normalmente no afectan a la precisión del color, pero permiten incorporar un canal
alfa que representa la transparencia de cada píxel.
● Modo de Vídeo: combinación de la resolución y la profundidad de color. Determina la cantidad de
memoria de vídeo mínima necesaria en la tarjeta.
● Memoria Gráfica: Equivale a la Resolución por los bits de color dividido 8 (para indicarse en bytes).
● Velocidad de Refresco o Tasa de Refresco: Número de veces que se dibuja la pantalla por segundo.
Expresado en Hz. La velocidad mínima recomendada son 60 Hz. A diferencia de los monitores CRT, los
monitores TFT no trabajan por el sistema de barrido de rayos, por lo que ese parpadeo ha desaparecido
prácticamente. De hecho la tasa de refresco en los monitores TFT es muy pequeña (normalmente entre 56Hz
y 75Hzt).
● Conversión digital-analógica: Se llama RAMDAC al dispositivo encargado de convertir los datos digitales
de color que genera la tarjeta de vídeo a las señales analógicas que entiende el monitor en sus 3 colores
básicos.
La calidad de este dispositivo viene determinada por la formula:
Ancho de banda (Mhz) = Píxeles(x) * Píxeles(y) * frecuencia de refresco * 1.5
VGA (Video Graphics Array)
Es un estándar gráfico introducido por IBM en 1988, y que continua la evolución de MDA, CGA, HGC,
EGA11..., con una resolución característica de 640x480 píxeles y 256 colores12. Hoy día se conoce como
VGA a éste modo de vídeo.
Los conectores VGA y su correspondiente cableado casi siempre son utilizados exclusivamente para transportar componentes analógicos RGB-HV (Red-Green-Blue-Horiz. Sync.-Vert. Sync.) junto con señales de
vídeo DDC2 (señales bidireccionales entre el monitor y la tarjeta), reloj digital y datos.
Este modo de vídeo vuelve a ser popular en dispositivos móviles y es la configuración mínima en las tarjetas
actuales.
El estándar utilizaba en origen 256KB de memoria RAM de vídeo. Utiliza un conector de tipo DE-15F (DE15
Hembra) en el PC y DE-15F o DE-15M (DE-15 Macho) en el monitor.
Este estándar ha ido evolucionando para permitir mayores resoluciones y mayor profundidad de color aumentado
también la memoria RAM de vídeo necesaria. Algunas resoluciones cambian la relación de proporción original 4:3
Las principales resoluciones son:
● VGA (Video Graphics Array, IBM 1988): 640 x 480 (proporción 4:3)
● SVGA (Super VGA, varios 198713): 800 x 600 (proporción 4:3)
● XGA (eXtended VGA, IBM 1990): 1024 x 768 (proporción 4:3)
● SXGA (Super XGA): 1280 x 1024 (proporción 5:3)
● UXGA (Ultra XGA): 1600 x 1200 (proporción 4:3)
28
VÍDEO DIGITAL
DFP (Digital Flat Panel) es un estándar digital de vídeo un poco antiguo que no llegó a tener aceptación en el
mercado.
DVI (Digital Visual Interface) es otro estándar de vídeo digital. El brillo de los píxeles se transmite en forma
de lista de
números. La pantalla, en su resolución nativa, lee cada número y aplica ese brillo al píxel apropiado.
Un enlace DVI se compone de cable de 4 pares trenzados (rojo, verde, azul y reloj).
No usa compresión ni transmisión por paquetes. La pantalla entera se transmite constantemente.
Los conectores DVI pueden ser solo analógicos, solo digitales o permitir ambos y de un solo canal o de dos:
● Enlace Simple (Single Link) - Máxima resolución: 2.6 Mpíxels a 60Hz. 165MHz máximo.
● Enlace Doble (Dual Link) – Incluye un segundo conjunto de pares trenzados. Cuando se activa se emiten
conjuntos de píxeles alternos. Cada canal ofrece más de 165MHz.
HDMI (High-Definition Multimedia Interface) es un estándar con gestión DRM (HDCP) promovido por la
industria para sustituir a DVI.
HDMI permite el envío de vídeo digital sin comprimir -de forma compatible con DVI digital- y hasta 8 canales de audio digital por un mismo cable.
Pero si el emisor detecta que no está conectado a otra equipo HDMI (sino a un DVI, por ejemplo) degrada
intencionadamente la señal de vídeo.
Además los fabricantes se han comprometido a no fabricar grabadores con conexión HDMI, teniendo cada
uno una firma digital que los productos de los demás rechazarían en caso de romper el compromiso.
29
Placa de sonido
Una tarjeta de sonido o placa de sonido es una tarjeta de expansión para computadoras que permite la
salida de audio controlada por un programa informático llamado controlador (en inglés driver). El uso
típico de las tarjetas de sonido consiste en hacer, mediante un programa que actúa de mezclador, que las
aplicaciones multimedia del componente de audio suenen y puedan ser gestionadas. Estas aplicaciones
incluyen composición de audio y en conjunción con la tarjeta de videoconferencia también puede hacerse
una edición de vídeo, presentaciones multimedia y entretenimiento (videojuegos). Algunos equipos (como
los personales) tienen la tarjeta ya integrada, mientras que otros requieren tarjetas de expansión. También
hay equipos que por su uso (como por ejemplo servidores) no requieren de dicha función.
Las tarjetas de sonido analógicas disponen de un conversor analógico-digital que se encarga de transformar
la señal de sonido analógica en su equivalente digital. Esto se lleva a cabo mediante tres fases: muestreo,
cuantificación y codificación. Como resultado se obtiene una secuencia de valores binarios que representan el
nivel de tensión en un momento concreto. El número de bits por muestra es fijo, y suele ser 16. La frecuencia
de muestreo se puede controlar por software y normalmente es una fracción de 44.1kHz.
La audición humana está limitada a los 16 o 17 KHz, pero si los equipos se extienden más allá de este limite
se obtiene una mejor calidad. La frecuencia de muestreo (del convertidor) debe ser de más del doble que la
banda que se pretende utilizar (teorema de Nyquist en la práctica).
Finalmente los nuevos formatos de alta definición usan frecuencias de muestreo de 96 KHz (para tener una
banda de 40 KHz) y hasta 192 KHz, no porque estas frecuencias se puedan oír, sino porque así es más fácil
reproducir las que si se oyen.
30
Gabinete
En informática, la carcasa, torre, gabinete, caja o chasis de computadora, es la estructura metálica o plástica, cuya función consiste en albergar y proteger los componentes internos como la CPU, la RAM, la placa
madre, la fuente de alimentación, la/s placas de expansión y los dispositivos o unidades de almacenamiento:
disquetera, unidad de disco rígido, unidad de disco óptico (lectora o grabadora de: CD, DVD, Blu-Ray).
Normalmente están construídas de acero electrogalvanizado, plástico o aluminio.
Hay que distinguir 2 formatos de gabinetes.
1. Gabinete tipo Torre (PC Tradicional)
2. Gabinete tipo Rack (Servidores)
31
32
Descargar