Comprar un ordenador

Anuncio
1. − Introducción
E
n este trabajo se trata de analizar desde un punto de vista objetivo las características de un ordenador tanto
desde la esfera del hardware (que se tratará más en detalle) como en la del software. Para hacer más fácil la
lectura de este informe se ha clasificado el mismo en dos partes bien diferenciadas que a la vez no suelen
prodigarse como enfoque típico. Las divisiones se han hecho en cuanto a componentes externos e internos
puesto que parece un mejor encauzamiento para personas no duchas en la materia.
2. − Componentes internos
L
os componenetes del ordenador son aquellos que normalmente no se ven desde fuera puesto que suelen estar
atornillados dentro de la caja.
2.1. − Placa Base
Descripción: La placa base es un componente fundamental para el ordenador de forma que consta de:
Chipset: Conjunto de Chips (3 o 4 generalmente) que sirven para gestionar la comunicación entre los distintos
componentes del ordenador. Se utilizan para controlar las transferencias de información a través de los buses
y entre los componentes de la placa. Estos conjuntos de chips se actualizan generalmente cuando aparecen
nuevos microprocesadores o nuevas características en la placa. Algunos de los más actuales son el Aladdin V,
440 BX o 440 LX... etc. utilizándose cada uno en un tipo de placa. Los fabricantes más importantes son Intel,
Acer Labs y Via Technologies. Las velocidades del bus de sistema en las placas actuales son de 66 Mhz o los
100 Mhz que se están imponiéndo por su mayor rapidez. Un Hercio es la unidad de frecuencia (1 ciclo por
segundo) por lo que 100 Mhz son (100x1024x1024 ciclos/segundo) o lo que es igual 1.048x109 ciclos por
segundo. Posteriormente se debe igualar la velocidad del bus a la del procesador para lo que existen jumpers
llamados multiplicadores que realizan esta tarea.
Ranuras de Expansión: Estas ranuras son extensiones de la placa base de distinto tipo que aportan cada una,
distintas tarjetas al equipo.
ISA: Son las primeras ranuras que aparecieron y las primeras que están
destinadas a desaparecer. Son ranuras de 16 bits por lo que la velocidad de transferencia a través del sistema
es baja. Por tanto, este tipo de ranuras se utilizan cada vez menos siendo pocas las tarjetas que actualmente
están destinadas a este dispositivo. Tradicionalmente han sido las tarjetas de sonido las encargadas de
aprovechar esta ranura (debido a sus pocos requerimientos) así como algunas tarjetas de radio o
comunicaciones pero gradualmente se ha ido migrando hacia las PCI y por tanto están próximas a
desaparecer.
PCI: Son ranuras de expansión de 32 bits lo que permite un aumento
del flujo de datos y a una mayor velocidad (aunque eso vendrá determinado finalmente por la velocidad del
bus de sistema). En las placas suelen venir de 3 a 6 según configuraciones, siempre en detrimento de las
ranuras ISA. En estas ramunas se insertan practicamente todas las tarjetas necesarias para el ordenador (video,
modem, sonido, decodificadora MPEGII, radio, televisión.....).
1
AGP: Esta ranura de expansión es un protocolo creado por Intel para
agilizar los gráficos de forma que se crea un bus autónomo, autopista gráfica, desde donde se manda y recibe
todo lo relacionado con los gráficos del ordenador (desde rutinas de texturizado hasta renderización en tiempo
real). Esto es posible debido a la gran velocidad que es capaz de proporcionar el bus gráfico (hasta 500
Mbit/sg) descargándo además las tarjetas gráficas de trabajo al procesador debido a la gran cantidad de
memria que traen. Actualmente se implementa en las tarjetas AGP2x o AGP4x (en teoría) que permite
duplicar o cuatriplicar la velocidad del bus y por tanto el tráfico de datos gráficos.
Ranuras de memoria: La memoria es otro componente fundamental del ordenador y que junto con el micro y
la placa base forman el núcleo del ordenador. Actualmente existen en el mercado dos tipos de memoria en el
ámbito de usuario:
Tipo SIMM: Estas ranuras de expansión de memoria están abocadas a
desaparecer actualmente. Entre sus características se puede ver que son ranuras de 72 contactos que permiten
la inserción de módulos de memoria simple como su propio nombre indica. Esto es una clara desventaja
respecto a su antecesora.
Tipo DIMM: Actualmente son las que se encuentran mayormente en las placas modernas soliendo haber
entre 2 y 4 módulos de 168 contactos. Esta ranura se caracteriza por tener la posibilidad de que se inserten
módulos dobles de memoria lo que significa mayor capacidad y el tipo de memoria que se inserta es más
rápida.
Ranura del microprocesador: Esta ranura es la que permite al microprocesador insertarse en la placa base y
aprovechar por tanto todos sus recusrsos. Actualmente existen dos tipos de ranuras:
Socket 7: Es una ranura tradicional en la que se insertan microprocesadores cuadrados con un patillaje de 321
patillas.
Slot 1: Es una ranura más parecida a una expansión de memoria y ahí se insertan exclusivamente los micros
de Intel. Esta diferencia ha hecho creer a Intel que podría distanciarse de sus competidores pero no lo ha
conseguido.
Jumpers: Los jumpers son unas pequeñas pestañas dela placa que sirven para configurar ésta. Con ellos se
pueden cambiar la frecuencia de la placa así como la del multiplicador de ésta. Las placas modernas tiene
cada vez menos jumpers, reconociendo automáticamente las características del micro (autoconfigurables) y
permitiéndonos modificar algunos parámetros a través de la BIOS.
Salidas: Por otro lado las placas tienen conexiones de salida que actualmnete están estandarizados siendo 2
conectores de serie para distintos dispositivos (velocidad lenta), 1 paralelo para la impresora (velocidad
media), 2 USB (buses universales de serie) y 2 PSII para el teclado y el ratón. Tenemos que destacar los
conectores USB ya que son la respuesta al exceso de cableado pudiendo conectarse hasta 127 dispositivos en
serie a partir de esa salida. Como característica fundamental y novedosa aportan la total integración Plug &
Play (enchufar y listo) sin complicadas fases de instalación.
Recomendaciones: Por último decir que dependiendo de la funete de alimentación que utilicen y del tamaño
de las placas se podrán utilizar las ATX o BabyAT aunque estas últimas están en desuso. Mención aparte
merece las placas NLX que si bien están desarrolladas totalmente hace tiempo, lo que aportan, (mayor
facilidad de acceso a los componentes) no está en consonancia con su precio. Por tanto, una placa base es la
base donde se apoyan los diversos componentes internos que veremos posteriormente.
2
Ya desde el punto de vista presupuestario no es descabellado pensar en una placa base con todas las
características mejores anteriormente mencionadas y cuyo precio no supere las 20.000 ptas.
Algunas recomnedaciones son:
Modelo
I Will XA100 ATX AGP para K6−2
I Will BD100 ATX AGP para P−II
Asus P5B 133Mhz ATX
Precio
14.400 pts
19.900 pts
13.900 pts
2.2. − Microprocesador
El microprocesador es la parte más importante del sistema de forma que todas las operaciones que se realizan
(o casi todas) pasan por el micro. Por tanto es bueno tener un micro potente que sumado a otras características
servirá para sacar el máximo rendimiento al ordenador.
Descripción: Actualmente existen en el mercado varios modelos de microprocesador pero en este informe
sólo nos referiremos a los dos que ocupan más cuota de mercado (Intel y AMD) dejando a IDT (Centaur) y a
Cyrix para mejor ocasión, sobre todo porque a la hora de comprar el consumidor siempre busca lo más
conocido.
Transistores: Son los encargados de realizar todas las operaciones lógicas y aritméticas neceasrias para un
correcto funcionamiento. Dentro de este apartado hay que decir que la organización interna de la CPU es muy
complicada y solo se darán algunas orientaciones con respecto a su estructura.
Así, podemos hacer una clara distinción entre tipos de datos procesados por la CPU. Los datos de tipo entero
son los que le van llegando al micro al ejecutar aplicaciones de propósito general (ofimática, sofware de
gestión... etc.). En cambio, los datos en coma flotante son los decimales que se reciben cuando el ordenador
ejecuta aplicaciones como juegos, diseño en 3D, música... etc., por eso, existen diferencia de rendimiento
entre los distintos elementos y se implementan nuevas instrucciones cada vez mejores.
Caché: es una memoria muy rápida y generalmente de poco tamaño que se les añade a los microprocesadores
para que les sea más fácil y rápido encontrar los datos. La caché L1 o primaria (16Kb a 32Kb) se encuentra
integrada en la CPU y el acceso del micro a ella es por tanto a la misnma velocidad de éste. Dentro de esta
caché se guardan los datos que el micro utiliza con más frecuencia disminuyendo así el número de accesos a
la memoria principal y aumentando la velocidad con la que se realizan las operaciones. La caché L2 o
secundaria (256Kb a 512 Kb) permite almacenar más datos pero se encuentra generalmente en la placa
(Socket 7) por lo que el acceso a ésta se realiza a la velocidad del bus de la placa. En cambio en P−II la caché
L2 se encuentra insertada en la pastilla propia del micro y se accede a ella a la mitad de la velocidad de éste.
Ahora abordaremos los micros exsitentes en el mercado en forma de comparativa de manera que el usuario
quede más convencido de las diferencias existentes entre ambos micros.
Los procesadores actuales destacan ya no sólo por su versatilidad sino por el tipo de mercado hacia el que se
orientan. Esto da lugar a que, a la hora de valorarlos sea necesario hablar de lo que se conoce como vectores
de prestaciones. Básicamente podríamos distinguir tres posibilidades: prestaciones en multimedia,
prestaciones en aplicaciones en coma flotante y prestaciones frente a aplicaciones de enteros.
Hoy en día son cuatro las posibles alternativas de que el usuario dispone de cara a la adquisición de un micro
para su equipo. En el escalón más alto nos encontramos con los Xeon, pero dada la clara orientación que estos
procesadores presentan de cara a grandes servidores obviaremos siquiera dicha posibilidad centrándonos en
las otras tres, más realistas.
3
La primera de ellas va especialmente indicada para presupuestos más bajos, nos referimos al K6−2 que se
engloba dentro de lo que su compañía llama plataforma Super 7. Dicha iniciativa, puesta en marcha por un
grupo de fabricantes encabezados por AMD, consistía en fomentar nuevos avances que permitieran desarrollar
aún más las posibilidades del Socket 7 que se han materializado en los chipsets de Via Technologies con los
que se da soporte a buses de 100 Mhz, conectores AGP o un sistema de caché con conexión a la misma
velocidad del micro.
El K6−2 de AMD se dio a conocer en Mayo de 1998 y se trata de un procesador destinado a Socket 7, con
funcionalidad superescalar y la implementación de la tecnlogía 3D Now!, que actualmente se encuentra en
versiones de 266 a 400 Mhz.
En su interior incorpora 9,3 millones de transistores fabricados con tecnología de proceso de 5 capas y 0,25
micras con interconexión local y aislamiento de protección superficial, todo ello integrado dentro de un
paquete PGA de 321 patillas.
Su rendimiento es similar e incluso superior a los Pentium II de Intel funcionando a la misma velocidad, con
la ventaja añadida de tener un coste más reducido.
La tecnología 3D Now! no es otra cosa que un conjunto de 21 nuevas instrucciones de tipo SIMD, orientadas a
acelerar las funciones físicas y geométricas de los gráficos 3D. Esto, junto a las dobles conexiones de
ejecución de registros, permite ofrecer hatsa 4 resultados en coma flotante por ciclo de reloj, con un
rendimiento máximo de 1,33 Gigaflops a 333 Mhz frente a los sólo 0,4 que puede alcanzar un P−II a 400
Mhz.
En el comportamiento global el K6−2 se posiciona como el micro más rápido que existe actualmente para
Socket 7 con un excelente resultado en las diferentes versiones de Windows sobre las que se han puesto a
prueba.
Por otro lado el P−II es la segunda alternativa disponible para usuarios que buscan más potencia (cuando
hablamos de P−II englobamos a Mendocino y a Celeron) que varían en cuanto a memoria caché
implementada.
La llegada de los Mendochino (Celeron con 128KB de Caché) reequilibró en cierto modo la situación pero
siempre y cuando se tenga muy claro que vector de prestaciones debería utilizarse en cada caso.
La respuesta se encuentra en que ni los Celeron ni los Mendocino son buenos al ejecutar operaciones de
enteros por lo que no son la opción más indicada para aplicaciones de uso general (donde el P−II es muy
superior). Sin embargo recordemos que Intel diseñó estos procesadores pensando en un ámbito
doméstico/familiar por lo que su verdadero potencial se muestra al trabajar con aplicaciones multimedia o en
coma flotante. Así, con objeto de ofrecer un micro más atractivo Intel ha subido la velocidad de los micros
hasta los 400 Mhz pero sólo aumentan un 13% frente a los mismos a 333 Mhz y son un 20% más lentos que
los P−II a su misma velocidad.
A modo de referencia los nuevos K6−2 a 400 Mhz se muestran un 17% más rápido que los
Celeron/Mendocino antes referenciados, lo que al menos en teoría los posicionaría solo un 3% − 4% por
debajo de los P−II a la misma velocidad.
Por este motivo Intel ha dado otra vuelta de tuerca a su nomenclatura y se ha descolgado con la presentación
oficial de los denominados (Pentium −III) y P−III Xeon, que serían por tanto el trercer escalón en cuanto a
potencia, prestaciones y precio.
Ambos procesadores aún trabajan con tecnología de 32 bits aunque internamente lo hacen con datos de 64.
4
Sin embargo su auténtica novedad viene dada de su arquitectura SIMD−FP(Simple Intrucción −Múltiples
Datos, Punto Flotante) y que se había dado en llamar KNI (Katmai new instructions).
Esta nueva arquitectura extiende aún más las posiblilidades del actual MMX, añadiendo 57 instrucciones
nuevas que redundarán en beneficio de los aspactos gráficos tridimensionales, tanto en geometría euclidea
como en generación de superficies.
Otra ventaja importante de KNI, en combinación con el bus de 100 Mhz, será la aparición de los denominados
flujos de memoria, es decir la realización de peticiones múltiples simultáneas (de 4 a 8) a memoria,
posibilitando el movimiento masivo de datos sin que intervenga el propio procesador. Esto permitiría alcanzar
una ratio teórica de 640 Mb/seg, frente a los 240 Mb/seg que alcanza un P−II a 400 Mhz actualmente.
Finalmente, el último punto de interés de KNI consiste en pemitir la decodificación directa de video
digitalizado en formato MPEGII así como el ofrecimiento de instrucciones que aceleren el reconocimiento de
voz, en lo que es una clara respuesta a la tecnología 3D Now! De AMD.
Recomendaciones: Por tanto, y después de leer este capítulo dedicado a los micros podemos dar algunas
orientaciones que ayudarán a comprar el micro.
Modelo
Pentium Mendocino a 400 Mhz
P−II a 400 Mhz
P−III a 500 Mhz
AMD K6−2 3D Now! a 300 Mhz
AMD K6−2 3D Now! a 350 Mhz
AMD K6−2 3D Now! a 400 Mhz
Precio
22.900 ptas
44.900 ptas
111.900 ptas
11.500 ptas
14.900 ptas
22.900 ptas
2.3. − Memoria
La memoria de un ordenador es un componente fundamental del ordenador y uno de los que más problemas
puede causar debido a que cada tipo suele tener un voltaje diferente y la mezcla por tanto puede ser
problemática.
Descripción: La memoria de inserta en la placa base en una pequeñas tarbletas llenas de chips de memoria.
Cada chip de memoria contiene un múltiplo de 2 Mb de memoria dividida en celdas. Así según la cantidad de
chips y la capacidad de estos se obtendrán módulos de 8Mb, 16 Mb, 32 Mb, 64Mb hasta 128 Mb de memoria.
Actualmente existen dos tipos de memoria:
EDO RAM: La memoria EDO está desapareciendo progresivamente del mercado pero aún quedan algunos
restos para equipos antiguos. Esta memoria se caracteriza porque es de 60ns, es decir se tarda un tiempo
medio de 60 nanosegundos (60x10−9s) en acceder a una celda de memoria. Además es asíncrona lo que
significa que no puede acceder a varios datos en el misnmo ciclo de reloj. Por esto esta memoria está
desapareciendo.
SD − RAM: Como sus siglas indican (Memoria de Acceso Aleatorio Sincrona Directa) esta memoria es capaz
de acceder a una celda de memoria de forma síncrona por lo que se puede acceer a varios datos en el mismo
ciclo de reloj sincronizaándose con éste, y por tanto con el micro. Una variante de esta meoria es la SDRAM
PC−100 que es igual excepto en que está preparada para velocidades de bus de la placa de hasta 100 Mhz.
Además esta memoria es mucho más rápida que la EDO accediendo a una celda de memoria a una velocidad
media de 12 ns. Actualmente son las más extendidas.
5
RD − RAM: Esta memoria todavía no está disponible pero a finales del 99 saldrá al mercado con algunas
carácterísticas interesantes como módulos de hasta 288 Mb y acceso a celdas 10 veces más rápidas que las
SDRAM.
Recomendaciones: Evidentemente después de lo que hemos visto lo más lógico es optar por memoria
SDRAM puesto que es la que actualmente está más extendida. En cuanto a la cantidad, lo más lógico sería
empezar con 64Mb en un módulo (se ahorra espacio) pero dependiendo de las aplicaciones a utilizar (retoque
de imágenes...) se puede aumentar esta cantidad hasta 128 Mb o 256 Mb, si bien es cierto que los sistemas
operativos no gestionan eficientemente más de 64 Mb. Actualmente podemos encontrarnos con estos precios:
Memorias
Modelo
DIMM 32 Mb SDRAM PC−100
DIMM 64 Mb SDRAM PC−100
DIMM 128 Mb SDRAM PC−100
Precio
5990 ptas
12900 ptas
22900 ptas
2.4. − Tarjeta Gráfica
Antiguamente (hace tres años) la tarjeta gráfica sólo era un componente asociado intrínsecamente al monitor
en tanto en cuanto es absolutamente necesaria para que el monitor funcione correctamente. Pero actualmente
este panorama ha cambiado de forma total ya que los gráficos tridimensionales han hecho que más de una
empresa se replantee su oferta en este tipo de componentes.
Descripción: La tarjeta gráfica es el componente imprescindible para el monitor de forma que sin este
componenete es imposible ver nada en el monitor. Algunas presentan la posiblilidad de entrada y/o salida TV
y conexión de cámaras de video... etc. Las tarjetas presentan un conjunto de chips encargados de transformar
las señales digitales que le llegan del micro en señales adecuadas que puede entender el monitor y su tubo de
imagen. Así cada instrucción es decodificada para que el monitor presente una imagen sobre la pantalla.
Actualmente esta función la realizan todas las tarjetas sin nigún problema y predomina las característica
SVGA que es un tipo de definición de la configuración en cuanto a color, definición y otros componentes del
monitor.
Aunque el monitor es el elemento más visible de cara al usuario, lo cierto es que la verdadera protagonista es
la tarjeta gráfica, de cuyas cualidades o carencias dependerán en gran medida las imágenes que se muestren
por pantalla. Sin embargo, en este sentido merece la pena destacar que las modernas tarjetas gráficas poco
tienen que ver con lo que hace apenas un año se podía encontrar en el mercado. La situación ha cambiado de
forma radical y hoy en día es difícil concebir una tarjeta que no aporte tanto aceleración 2D (clásico escritorio
de Windows...) como 3D (juegos y aplicaciones de diseño) y con una memoria mínima de 8 Mb. Los precios
han caido de forma radical por lo que para seleccionar una buena tarjeta deberemos tener en cuenta estos y
otros factores.
Por ejemplo, la decisión entre PCI o AGP vendrá determiada casi exclusivamente por el tipo de conectores
existentes en la placa base, puesto que los fabricantes ofrecen ambos modelos por un precio similar. El
rendimiento, sin embargo se decanta con holgura hacia las AGP.
Por tanto, para uso general podemos decantarnos por una tajeta normal con 8 Mb de memoria y sin muchos
ornamentos, pero si por el contrario el usuario pierde horas frente al último juego del mercado lo lógico es que
adquiera una tarjeta 3D con unas características acordes a lo que el juego le ofrece. Si es así, existen varias
tarjetas aceleredoras de las que hablaremos más adelante.
Un mito de toda la vida ha sido que a mayor cantidad de memoria gráfica instalada mayor rendimiento
6
alcanzaría nuestra tarjeta. Esto no es cierto, puesto que aparte del procesador gráfico instalado, las claves de la
velocidad de una tarjeta son su RAMDAC y el tipo de memoria empleada. La cantidad de ésta última tan solo
influye en la resolución y profundidad de color que podemos alcanzar. En el mercado existen diversos tipos de
memoria aunque en este apartado nos centraremos únicamente en las más habituales que se pueden encontrar
hoy en día. Una de las más antiguas es la VRAM, se trata de una memoria de doble puerto, es decir, capaz de
leer y escribir datos en un mismo ciclo, con el consiguiente ahorro de tiempo. Otra memoria de alto
rendimiento es la WRAM también de doble puerto, pero de construcción más avanzada y económica que la
VRAM (sobre un 20%). Otro tipo de memoria muy utilizada hoy en día es la SGRAM, una variante de la
SDRAM y que al igual que ésta también funciona en modo síncrono, es decir, a la misma velocidad que el
reloj del bus.
Otra característica común a muchas tarjetas gráficas es su capacidad de decodificar MPEGII lo que las
convierte en las compañeras idóneas para los cada vez más populares lectores de DVD. Otros modelos no
decodifican MPEGII pero permiten disfrutar en nuestro monitor de imágenes de televisión.
Esto es por tanto lo que nos pueden ofrecer las tarjetas gráficas aunque cada vez se superan rendimientos más
altos.
Mención aparte requiere la aceleración 3D en torno a la cual se mueven grandes industrias de este segmento
(Guillemot, 3dfx, Diamond, Creative Labs...).
En estas navidades los reyes indiscutibles de las fiestas han sido las tarjetas basadas en los procesadores TNT
y Banshee. Ambos modelos, tal y como veremos unen a su potencia de proceso una polivalencia que las
permite trabajar tanto con los juegos de última generación como con las aplicaciones de diseño gráfico más
modernas pues las dos soportan el estándar OpenGL. Sin embargo la aparición de otros modelos superiores,
como el ATI Rage 128, puede hacer que se tambalee la supremacía de Riva y 3dfx. Las características más
importantes de los chips gráficos del momento son:
3dfx Vodoo Banshee: Presenta un único motor de texturas que solo puede generar escenas 3D en modo de 16
bits, y aunque trabaje internamente a 24 bits, mostrará una variedad cromática reducida, en juegos
multitextura como Quake II. El z−buffer solo trabaja en 16 bits, lo que representa un serio handicap en
aplicaciones de CAD. Las texturas están limitadas a 256x256 pixels y realiza menos variedad de operaciones
de mezcla de texturas que el TNT. No soporta filtro anisotrópico, ni stencil−buffer y emula antialias como
opción usuario. Soporta AGP modo 1 sin las funciones DIME (ejecución directa de texturas desde, en o hacia
memoria principal), es decir, sólo mejora la tranferencia de datos. El soporte software solo incluye Direct 3D
completo, GDI por software y Overlay para video (dispone de conector VESA para conectar TV−tunner o
descompresores MPEGII/DVD). También soporta OpenGL.
Riva TNT: La excelencia del TNT comprende tanto velocidad como características 3D superiores a los
Vodoo2 y a Banshee.El soporte AGPx2 con DIME permite habilitar memoria AGP y aplicar texturas desde y
hacia la memoria principal. Puede generar escenas usando 32 bits de color y su z−buffer tiene una precisión
de 24 bits acompañados por un stencil−buffer de 8 bits. Puede, por ello ejecutar aplicaciones profesionales
CAD/3D aunque sólo con un número reducido de polígonos. Presenta dos unidades multitextura que trabajan
en paralelo y permiten aplicar hasta 4 operaciones de mezcla por ciclo. Gracias a esto el filtro trilineal se
puede realizar en un ciclo, es capaz de aplicar filtro anisotrópico y texturas de hasta 2048x2048 pixels y
acepta antialiasing por hardware pero no del tipo escena completa. Debido a fallos en Direct 3D la capacidad
de aplicar texturas patrón (Bump−mapping) actualmente no es operativa aunque se soporta por hardware.
Adicionalmente TNT es capaz de aplicar todas las operaciones de mezcla de texturas lo que permite realizar
efectos especiales inéditos.
Vodoo3: Combina las destrezas tanto del Vodoo2 como del Banshee con un aumento de la frecuencia de hasta
a 180Mhz justo el doble que el TNT. Hablamos de un chip con un iniciador de triángulos que procesa hasta 7
7
millones de polígonos por segundo y dos motores de textura simultáneas que son capaces de llenar hasta 366
millones de pixels por segundo. Habrá dos versiones del chip (Vodoo3 2000, Vodoo3 3000). El primero
funciona a 125 Mhz ofreciendo hasta 250 Mpixels/seg. El modelo 3000 será el modelo de gama alta.
Ambos modelos con su innovador RAMDAC a 350 Mhz soportan resoluciones tan elevadas como 2048x1536
a 75 Hz, pudiendo manejar señales de alta definición HDTV. Adicionalmente ahorra un 40% en la carga del
micro central en la descompresión MPEGII y se conecta a pantallas planas mediante un chip LCDfx.
El problema del Vodoo3 es su calidad de imagen, No añade nuevas características 3D respecto a Vodoo2.
Desgraciadamente las texturas siguen limitadas a 256x256 lo que obligará a los programadores a hacer un
tedioso trabajo de troceado y recomposición. La renderización a 32 bits cobrará cada vez más importancia, en
tanto en cuanto aparezcan juegos multipasada (5 pasadas por ciclo en el Quake III). Las tarjetas a 16 bits
empiezan a sufrir pérdidas cromáticas y el resultado de la imagen es pobre. Peor es la representación de niebla
volumétrica porque el resultado tiene pequeñas variaciones respecto del color base. Tampoco admite formatos
de z−buffer superiores a 16 bits ni el stencil−buffer, un espacio de bits utilizado para filtrar determinadas
operaciones en ciertas zonas de la pantalla. La primera ausencia causa estragos en aplicaciones tipo CAD y
juegos futuros basados en NURBS. Pese a todo, su tremenda rapidez hace que estos defectos se compensen.
Como punto final a este apartado pondremios precio a esta tecnología:
Modelo
S3Trio 4mb AGP
Intel 740 8Mb AGP
Ati All−in −wonder 8 Mb AGP
Aus V3200 16 Mb Banshee AGP
Creative 3D Vodoo2 12Mb AGP
3D Blaster Riva TNT 16 Mb AGP
Precio
3.900 ptas
6.100 ptas
19600 ptas
17.100 ptas
21.500 ptas
22.885 ptas
2.5. − Tarjeta de Sonido
La tarjerta de sonido es un componente no esencial para un ordenador aunque si se quiere disfrutar de todos
los sonidos que puedan emitir los juegos y otras aplicaciones hay que poseer por lo menos una tarjeta de
calidad y precio medianos.
Descripción: Una tarjeta de sonido es un componente de los llamados multimedia puesto que es capaz de
procesar el sonido, y eso hace que el usuario se introduzca más en el entorno de que dispone. Existen muchas
tarjetas de sonidos de las que veremos sus características generales.
La tarjeta de sonido suele insertarse en una raunura de expansión tipo ISA debido a los pocos requerimientos
necesarios para procesar sonido, si bien es cierto que con los avances en tecnología de estas tarjetas se ha ido
migrando hacia las ranuras de expansión tipo PCI que ofrecen un mayor ancho de banda lo que implica la
posibilidad de gestionar mayor cantidad de voces, sonido con alta calidad de definición... etc.
Una tarjeta de sonido normal debe tener una entrada (Line In), una salida (Line Out), un conector para el
micrófono (Mic) y un dispositivo de entrada MIDI que también puede ser aprovechado para conectar un
Joystick.
Algunas tarjetas traen varios efectos como sintesis Wave Table(emulador de instrumentos por tabla de
sonidos) u otros pero requieren más memoria y un micro potente.
8
Recomendaciones: Los primeros ordenadores con audio no cosecharon grandes éxitos en el campo de la
grabación, sino en dotar de una dimensión sonora a los videojuegos.
Como no es posibe ir al pasado y grabar el sonido de una batalla medieval ni los rotores de un F15 en la
cabina del piloto, hubo que pensar otra forma de crear este ambiente en el ordenador. El secreto de llama
síntesis, y es la operación mediante el cual un circuito electrónico crea una señal a partir de una descripción
digital. Hay dos tipos de síntesis: algorítmica y descrptiva.
La síntesis algorítmica consiste en crear el sonido a partir de una fórmula. Por ejemplo, pensemos en la tarjeta
de sonido como en una fábrica de gomas elásticas, en donde podemos definir la longitud de la goma y la
frecuencia de oscilación. Si nos llegan instrucciones con la forma longitud 3, frecuencia 200 haremos oscilar
una goma de 3 unidades de longitud a 200 Hz. El OPL3 de Yamaha ha sido el sintetizador más extendido en
el mundo del PC, debido a la normalización propuesta por la compatibilidad SoundBlaster. Lo que hace este
chip es fabricar una serie de sonidos de acuerdo con una serie de instrucciones que le llegan del programa en
ejecución.
Aunque la síntesis algorítmica haya sido popular sobre todo en su variante FM, está limitada por el hecho de
que muchos sonidos naturales no responden a una formalución sencilla. El chirriar de una puerta no se puede
describir en términos de amplitud, envolvente y frecuencia. Esto, lo vieron muy claro los fabricantes de pianos
electrónicos, ante la imposibilidad de reproducir con este método el sonido de un instrumento real. Para
solucionarlo, Yamaha y otras empresas desarrollaron una técnica que consistía en digitalizar el sonido real y
reproducirlo a una velocidad mayor o menor que la original. Mediante este truco se obtiene una variación en
la frecuencia del sonido, simulando un instrumento completo. Dicho de otra forma, si grabamos un La
normal, a 440 Hz, y lo reproducimos al doble de velocidad, obtenemos un sonido con las mismas
características pero a 880 Hz. Este método de síntesis sólo tiene dos inconvenientes: la gama dinámica del
sonido y el espacio que ocupan las muestras.
Si reproducimos una cinta de vídeo y pulsamos la tecla de avance rápido, los personajes se mueven a más
velocidad, pero el movimiento no es real, no percibimos que los personajes corran más deprisa y vemos
rápidamente que es una trampa. Algo semejante ocurre con las muestras de sonido. Una muestra cuatro veces
más rápida que la original no es el mismo sonido cuatro octavas más alto. Por eso, lo que se hace es realizar
varias muestras del mismo instrumento con pocas notas de intervalo.
Claro, esto nos lleva al segundo inconveniente: para alcanzar una alta calidad de síntesis, tenemos que
almacenar un grupo de muestras enorme en nuestra «tabla de ondas». Esta es la razón de que las modernas
tarjetas de sonido lleven su propia memoria ampliable.
Hecha una pequeña introducción sobre las tarjetas de sonido, debemos preguntarnos por los formatos más
utilizados:
Los ficheros WAV tienen el sonido digitalizado, ¿qué tienen los ficheros MID? Si nos ponemos puristas, los
ficheros MID no existen. Es una popularización de una norma profesional para la comunicación entre
instrumentos electrónicos.
Esta norma, MIDI, contempla dos cosas: un cable normalizado DIN de 5 pines para la transmisión de señales
de control (nunca de sonidos), y un protocolo de comunicaciones. Este protocolo incluye instrucciones para
iniciar una batería en una caja de ritmos, encender luces en un escenario al ritmo de la melodía, y ejecutar una
pieza musical en un instrumento remoto. Una vez definido, es muy fácil utilizar un sistema de grabación para
almacenar las instrucciones en el estudio y reproducirlas en una actuación, simplificando el trabajo de los
músicos y enriqueciendo el espectáculo.
Los ficheros MIDI se grababan originalmente en secuenciadores numéricos, que existían en forma de
9
máquinas independientes y programas de software para ordenadores. Pero, si resulta que tenemos un
sintetizador FM dentro del ordenador ¿por qué no utilizamos la secuencia MIDI para ejecutar una pieza con
él? Este es el punto de arranque de los secuenciadores numéricos, como el Fast Tracker, que poco a poco se
ha ido alejando de la norma MIDI original. Un fichero MIDI es el que contiene instrucciones MIDI. Que éstas
se ejecuten en la tarjeta de sonido es algo circunstancial, pues lo normal es que se manden por el puerto DIN a
un módulo de sonidos externo.
En casi todos los ordenadores que han tenido capacidad de sintetizar sonido han aparecido formatos de
secuencias numéricas para activar los sintetizadores internos: XM, MID, MOD, etc. Pero esto no es MIDI. Los
programas que ofrecen comandos para combinar pistas de sonido y MIDI son «sincronizadores» o
secuenciadores avanzados, que sirven para unificar el trabajo de un sistema de grabación digital (como el
ordenador) con otros aparatos de síntesis, como la tarjeta de sonido, un sintetizador externo o un muestreador
profesional. Una pista MIDI nunca tiene sonido, y un fichero que incluye muestras de sonido (como los MOD)
no es un fichero MIDI.
No son malos ni inferiores. Sólo son una solución distinta al mismo problema. Lo que pasa es que estos
ficheros no están normalizados, mientras que la norma MIDI sí lo está, y la normalización es la mejor garantía
de que nuestro trabajo no quedará obsoleto en poco tiempo.
También, vamos a comentar un poco el «famoso» sonido 3D. Desde hace muchos años estamos
acostumbrados a escuchar grabaciones estereofónicas, que reproducen el sonido como si proviniera de dos
fuentes puntuales a nuestro alrededor. Este ha sido siempre un sistema barato y sencillo para recrear, en cierta
medida, el hecho de que en la vida real el sonido nos rodea y no viene de la membrana de un altavoz.
Pero, como casi todo lo que hemos comentado, la grabación estéreo tiene sus limitaciones pues sigue sin
transmitir la sensación de un origen «ambiental» de sonido.
Hay dos estrategias para solucionar este problema: el realce de frecuencias laterales y los sistemas de sonido
multicanal.
La primera solución corresponde a todos esos altavoces, filtros y programas que dicen producir sonido 3D a
partir de dos altavoces. Lo que hacen realmente es elevar el volumen de las frecuencias altas de la grabación,
puesto que el oído está hecho de forma que recibe con más nitidez los sonidos laterales que los frontales. Por
tanto, si escuchamos un sonido en el que predomina el volumen de las altas frecuencias, lo interpretamos
como algo que proviene de nuestros lados, y no del frente como sucede con dos altavoces. Es un buen truco
que unas empresas han resuelto mejor que otras (SRS), pero no deja de ser un truco.
La única forma que hay de conseguir sonido 3D es utilizando más canales y más altavoces.
Por último no podemos olvidar el formato MP3 que es bueno, bonito y barato.
Desde hace poco tiempo empieza a ser normal acercarnos a la mesa de trabajo de alguien y escuchar algún
tema musical de fondo. Si nos fijamos atentamente, veremos que no se trata de la moda de hace un par de
años de reproducir discos compactos a través de la tarjeta de audio. Ahí, en una esquina de la pantalla hay una
pequeña ventana flotante que anuncia el verdadero origen del sonido. Es un reproductor de MP3, la última
fiebre nacida en torno al fenómeno multimedia y que ya tiene legiones de adeptos y detractores.
MP3 es la abreviatura de MPEG Nivel 3, una de las diversas normas nacidas al amparo del consorcio MPEG
para la compresión de audio en fichero multimedia. Su mayor ventaja es que reduce el tamaño de las
canciones hasta una décima parte de su tamaño original, algo muy importante si tenemos en cuenta que una
canción de tres minutos sin compresión puede ocupar 30 o 40 Mbytes de disco. Gracias a la compresión MP3,
un disco compacto puede albergar 100 temas musicales sin ningún problema, el equivalente a 10 o 15 discos
10
compactos tradicionales, y la reproducción es casi más cómoda en ordenadores ya que no tenemos que
conectar el lector a la tarjeta de sonido.
Todas estas ventajas tienen un inconveniente y es que el formato MP3 es destructivo; es decir, que la calidad
del sonido que escuchamos es inferior a la del sonido original. ¿En qué grado? Depende de muchas cosas,
pero la parte del sonido sacrificada, que algunos califican de inaudible, es la responsable de ese «algo» que
tienen ciertos discos.
El mayor inconveniente, sin embargo, es que hace falta un ordenador bastante potente para reproducir los
ficheros sin que esta actividad afecte a nuestro trabajo. Por debajo de un Pentium a 133 MHz, es mejor no
intentarlo, y conviene tener 32 Mbytes de RAM, aunque éstos, son aspectos claramente superados en nuestros
días.
Puesto que el software de compresión está disponible a través de Internet, ha surgido un mercado «negro» en
el que podemos encontrar cualquier tema musical comprimido por el coste de la llamada telefónica que
necesitamos para bajarlo. Como todo en esta vida, el invento es bueno, pero el uso que se le da a veces no lo
es tanto.
Terminamos con algunos precios de tarjetas existentes ahora en el mercado:
Modelo
SoundBlaster 64 PCI
SoundBlaster 256 PCI
Maxi Sound Home Studio II
Precio
4.500 ptas
23.900 ptas
22.900 ptas
2.6. − Modem
El Módem es el elemento esencial en ordenador para dotar a este de una nueva dimensión, la cominicación.
Lejos queda ya la época en que los locos del PC cogían el ordenador y un pequeño modem de 2400 bps y se
enchufaban a cualquiera de los servicios existentes. Eran tiempos en los que el módem era una herramienta
que nos facilitaba el acceso al mundo de las aplicaciones shareware o drivers actualizados.
Hoy la situación ha cambiado de manera radical, con el auge del correro electrónico y la explosión de
popularidad de Internet (no sólo a nivel de contenido sino incluso de servicios), así como la utilización
generalizada de módems de al menos 33600 bps (si bien la oferta actual se compone casi exclusivamente de
modems de 56 Kbps).
Descripcón: El término módem hace referencia a un dispositivo modulador−demodulador, algo que suena
complicado de entender pero que resulta más claro si simplemente comentamos que no es otra cosa que la
unión de un conversor digital −analógico con otro conversor analógico − digital, o dicho de otro modo, un
simple convertidor de señales. Sin entrar en más detalles de la descripción, en cuanto a su funcionamiento
diremos que cuando hablamos de la velocidad de un módem nos referimos al número de bits por segundo que
éste es capaz de recibir o transmitir, aunque con las úlrimas normas utilizadas se debe hacer una pequeña
matización al respecto.
Cuando hace un par de años parecía que la velocidad de los módem se había estancado mediante la norma
V34+, los fabricantes Rockwell y US Robotics (hoy dentro de 3Com), desarrollaron por separado los nuevos
estándares, el K56Flex y el x2, mediante los cuales se pretendía alcanzar en ciertos casos la velocidad de
recepción de 56 Kbps. Ambos protocolos pretendían sacar partido a las por entonces nacientes lineas digitales,
sin coste adicional para el usuario final.
11
Recomendaciones: La diferencia de precio entre los módem de 33600 bps y los de 56000 bps es tan escasa
que a lo largo del año pasado los segundos desplazaron por completo a los primeros motivando además un
ajuste de precios y contribuyendo así a la verdadera explosión del mercado.
Ahora bien, la norma x2 no ha triunfado en el continente europeo y el organismo internacional ITU ha
aprobado finalmente la nueva norma V.90 que hace uso de una tecnología similar a las dos anteriores
permitinedo el envío de datos a 33600 bps y la recepción de éstos a 56000 bps. La razón de esta aparete
anomalía se debe a la pérdida de calidad que tiene lugar cuando convertimos datos analógicos en digitales, lo
que obliga a que la velocidad de envío sea más reducida, por el contrario, no tiene lugar en el procesao
inverso, lo que explica la diferencia de ratios. Sin embargo tenemos que tener en cuenta que al acceder a
Internet en cualquiera de sus servicios hoy en día, el flujo de información se dirige mayoritariamente desde la
red al usuario, por lo que las ventajas de los módem de velocidad variable se hacen más evidentes.
Haremos aquí un inciso sobre otras tecnologías que están destinadas a sustituir al módem.
Las líneas digitalees RDSI se han popularizado de forma notable a lo largo del último año, especialmente
desde el punto de vista empresarial, ya que las ventajas que suponen respecto a las líneas telefónicas
convencionales son palpables.
Para empezar las líneas digitales permiten la contratación de números adicionales al número de cabecara
propio de la línea, que a su vez se pueden enlazar a diferentes servicios.
Tiempos de transmisión de un fichero de 10 Mbytes
Tipo y vel. Del módem
Tipo de transmisión
Módem tradicional de 28800 bps
46 minutos
Módem tradicional de 56000 bps
24 minutos
RDSI 64000 bps
20 minutos
RDSI 128000 bps
10 minutos
Módem − Cable 1,54 Mps
52 segundos
Módem − Cable 4Mps
20 segundos
Módem − Cable 10 Mps
8 segundos
P. medio al mes
4800 ptas
4800 ptas
6300 ptas
7000 ptas
6500 ptas
8000 ptas
10000 ptas
*Los precios medios de módem tradicional incluyen 3500 ptas en conexiones + 1300 ptas mensuales de pago
al servidor. No se incluye el precio del módem.
** Los precios medios incluyen 3500 ptas en conexiones + 2800 ptas de mantenimiento de línea no
incluyéndose el alta del servicio ni el precio de la tarjeta RDSI.
*** Los precios medios del módem cable incluyen cuota mensual + alquiler de módem.
Por ejemplo, una línea digital podría tener dos líneas adicionales a los cuales se encontrasen acoplados
respectivamente un teléfono y un fax. Además de esto, las líneas RDSI alcanzan una velocidad de transmisión
sensiblemente superior a las de sus homónimas analógicas, lo que las hace sumamente atractivas para
empresas o usuarios cuyas necesidades de transferencia de datos sean muy amplias.
El siguiente paso en comunicaciones lo constituyen los denominados módem −cable, capaces de transmitir, en
teoría, hasta 30 Mbytes por segundo, aunque en la práctica esta cifra desciende hasta los 500 Kbps. Estos
dispositivos ya están funcionando en EE.UU. La tecnología de transmisión subyacente es la televisión por
cable que permite ofrecer una elevada tasa de transmisión, la conexión permanente a Internet y la posibilidad
de dar servicio a múltiples usuarios y servicios por medio de una única conexión física, sin monopolizar la
12
línea telefónica convencional ni vernos obligados a pagar por una segunda línea. Ahora bien, los módem −
cable emplean una tecnología más compleja, diferente a los módem convencionales pero parecida a la que se
usa en las redes locales. En este caso los disposi6tivos son moduladores− demoduladores de radiofrecuencia,
que interpretan las señales que llegan a través del cable y las convierten en algo entendible por el ordenador.
Modelo
Modem fax − Voz Externo ISA 56K V90
Modem Fax Zoltrix 56k Externo
Modem fax − Voz Interno PCI 56K
Precio
12250 ptas
10710 ptas
7875 ptas
2.7. − Sistemas de almacenamiento
En el mercado podemos encontrar una gran variedad de dispositivos con capacidad suficiente para satisfacer
todas nuestras necesidades, pero debemos ir con calma y revisar paso a paso toda la situación antes de
lanzarnos de forma alocada a la compra de nuevo material.
Descripción: En función del tipo de uso que le demos al ordenador, la cantidad de espacio necesario variará.
Por ejemplo, los infografistas, ilustradores o diseñadores gráficos necesitan grandes cantidades para almacenar
imágenes; mientras que alguien que sólo use el ordenador para escribir textos necesitará bastante menos
espacio.
Vistas así las cosas, y una vez que nos hemos planteado qué tipo de actividad desarrollamos, calcularemos la
cantidad de aplicaciones o ficheros que seremos capaces de generar. Si comprobamos que nuestra tasa de
creatividad (o, mejor dicho, de ocupación) es mínima, es posible que no tengamos que gastar mucho en
nuestro sistema de almacenamiento, pero sí en algún que otro apartado, como la memoria, por ejemplo.
Por tanto, es importante comprar con lógica, haciéndose esta recomendación extensible a todos los
componenets del ordenador.
Para empezar, tenemos que pensar un poco fríamente el dinero que vamos a invertir en nuestro ordenador, ya
que esto se ha de hacer con el pensamiento de obtener mayor provecho de él, y por supuesto, cuanto mayor
sea, mejor inversión habremos realizado. De nada sirve comprar un disco duro de 2 Gbyte si sabemos que los
nuevos sistemas operativos, junto con las aplicaciones de moda, ocuparán precisamente este espacio.
Sencillamente, acabamos de «tirar» el dinero, ya que nos veremos en la necesidad de comprar otro disco
nuevo de forma inmediata para disponer de suficiente espacio. Por lo tanto, hay que mirar con detalle qué es
lo que necesitamos y superar siempre dichas previsiones en torno a un 50%.
Si ya hemos tomado nuestra decisión de compra y contamos con todas las posibilidades económicas, ante
nosotros se abre un fabuloso mundo de novedades con las que llenar nuestra sed de información. Tenemos que
pensar en todos los detalles, no sólo en la unidad a compra, sino también en los cables de conexión y de
alimentación, así como en su configuración y montaje.
Veremos, por tanto distintas opciones de cara a una compra adecuada:
Disco duro: El disco duro es uno de los componentes fundamentales de todo ordenador. Y no se trata
únicamente de que sea el sistema de almacenamiento principal, sino que los propios sistemas operativos se
sirven de él como un medio con el que mejorar su comportamiento en determinadas situaciones (memoria
virtual, en la que se simula que se dispone de más memoria de la que en realidad se encuentra instalada).
La importancia de su rendimiento cobra así todo su significado, porque ¿Quién no se ha quedado mirando al
monitor esperando a que su ordenador terminase de hacer alguna tarea? A pesar de que dicha situacíon se
puede evitar con una superior cantidad de memoria, parece evidente que dicho tiempo sería tanto más
13
reducido cuanto mayor fuese el rendimiento del disco duro. Ahora bien, esto plantea una cuestión
fundamental y decisiva de cara a la elección de un disco duro, ¿Cómo medir de forma efectiva dicho
rendimiento?. Con cierta frecuencia se tiende a asociar (erroneamente) esta medición con el tiempo medio de
acceso de la unidad, suponiendo que cuanto menor sea dicha cifra, tanto mejor serán las prestaciones del disco
duro. El rendimiento de un sistema de almacenamiento depende en realidad de dos factores: uno de ellos es el
propio tiempo medio de acceso (varía dependiendo si es una operación de lectura o de escritura); mientras
que el otro es la velocidad de transferencia (Mbytes/seg una vez localizada la información).
Dependiendo del tipo de datos con los que estemos acostumbrados a trabajar estos parámatros tendrán más o
menos importancia.
Entre las distintas dudas que le surgirán al usuario, una de las más difíciles de decidir es la de dar el salto
desde la tecnología IDE a la SCSI. A favor de los IDE se encuentra su precio más ajustado, tradicional
baluarte que les ha permitido asentarse con fuerza en el mercado doméstico. Además, EIDE (Enhanced IDE)
ha aportado un gran conjunto de posibilidades y una potencia desconocida hasta el momento, pero en su
contra apararece la diferencia de velocidad.
Así, mientras que los discos IDE se han estancado (se están realizando estudios para desarrollar el FastATA2 o
UDMA2 con la tranferencia de hasta 60 Mbytes/s) en los 33Mbytes/s, los discos SCSI superaron esta tasa con
la llegada de UltraWide (40Mbytes/s) y posteriormente Ultra2(80 Mbytes/s). Cabe resaltar que éstas son
cifras teóricas y que jamás se llegan a conseguir en la práctica. Los discos SCSI presentan otras ventajas como
la posibilidad de gestionar hasta 7 dispositivos en un solo canal, y su mayor fiabilidad y robustez. Todo esto
hace que SCSI siga siendo el estándar de los profesionales. Estos depositan su confianza en un sistema que
durante años les ha producido beneficios, sin ningún tipo de fallos o errores externos al propio usuario.
Discos Duros IDE
Modelo
Seagate Medialist ST33210A
Samsumg SpinPoint SV0432A
Fujitsu Picobird MPC3064
Capacidad(Gb)
3,2
4,3
6,4
TMA(ms)
9,5
9,5
10
RPM
5400
5400
5400
Precio(ptas)
12100
18900
21500
Discos Duros SCSI
Modelo
Seagate Medalist ST 34520 Ultra
Seagate Barracuda ST UltraWide
Seagate Cheetah ST U2Wide
Capacidad(Gb)
4,5
9,1
18,1
TMA(ms)
9,5
7,1
5,7
RPM
7200
7200
10000
Precio(ptas)
34900
69900
119900
En la tabla adjunta se puede comprobar lo que esta nueva generación de discos duros es capaz de ofrecer y,
sobre todo, que como viene siendo la tónica habitual los precios de este tipo de dispositivos descienden de
forma drástica. Por lo tanto, es imprescindible conseguir la mejor relación precio/capacidad.
Grabadoras de CD: Una de las soluciones alternativas al almacenamiento de la información es la creación de
CDs que contengan todos aquellos datos que son factibles de perderse o sencillamente que no van a ser
alterados. De igual forma, los Cds son útiles para la elaboración de pequeñas tiradas de aplicaciones
personales, la elaboración de álbumes de fotos o incluso pequeñas tiradas de aplicaciones multimedia.
En definitiva, es un producto que se orienta un poco más hacia el usuario medio o el profesional, debido a la
necesidad de incorporar al equipo una controladora SCSI, si bien los últimos desarrollos realizados en el
campo de la tecnología EIDE han propiciado la aparición de las primeras unidades regrabables que utilizan
este tipo de BUS.
14
Las unidades regrabables, tal y como su propio nombre indica, son capaces de realizar copias de datos a un
CD especial denominado CD−RW, pero a diferencia de las grabadoras convencionales, se pueden borrar estos
datos previamente guardados. Las especificaciones marcadas para poder denominar a un disco CD−RW
garantizan un mínimo de mil grabaciones/borrados de la información contenida en él.
El precio de estos dispositivos está disminuyendo de forma paulatina, pero aún no se encuentran al alcance del
usuario doméstico, si bien es cierto que éste tampoco necesita de este tipo de sistemas para su trabajo
cotidiano frente al ordenador. Si realmente se piensa que este tipo de dispositivos puede ayudar a conservar la
información que se tiene y sobre todo, no se sale del presupuesto, es recomendable echar un vistazo a los
precios de estos sistemas en cualquier revista de informática aunque aquí se incluyan algunos.
Regragadoras
Modelo
IDE Grabador Philips 3610 Kit
SCSI Grabador Maxi 4x−8x Kit
SCSI Grabador Yamaha 4416 Kit
SCSI Grabador Plextor 8x−20x Kit
Precio
34900
45900
49900
67900
Grabadoras DVD: En este momento existen disponibles dos versiones de sistemas de grabación DVD: el
DVD−R y DVD−RAM. El primero de ellos es un sistema que únicamente permite la grabación de la
información una sola vez y es capaz de contener un máximo de 3,95 Gbytes. El segundo caso, denominado
DVD−RAM, es mucho más fléxible pero tan sólo permite almacenar un máximo aproximado de 2,5 Gbytes.
Este nombre describe los dispositivos capaces de realizar grabaciones personalizadas al igual que actualmente
lo hacemos con los sistemas regrabables de CD. Una de las ventajas que aporta es que podremos realizar
nuestras propias copias de vídeo e incluso recopilatorios de CD Audio. Pero aún está por ver el software que
nos permita la realización de este tipo de discos.
Las grabadoras DVD−RAM han empezado a comercializarse hace poco tiempo, pero ya existen unidades por
100000 pts (un poco caro para el consumidor final). De todas formas, las primeras versiones de estos
dispositivos de grabación no soportan DVD−Vídeo.
El pasado mes de enero recibimos la noticia de que un conjunto de empresas, actualmente comprometidas con
el desarrollo de los sistemas DVD, han comenzado la investigación sobre la siguiente generación de DVDs.
Este nuevo dispositivo, que recibe el nombre de DVD RE−E, está aún en fase de aprobación por la ECMA
como estándar tecnológico.
Si todo saliera bien, Hewlett−Packard, Philips y Sony, que lideran el grupo, podrían empezar en breve plazo a
producir este tipo de unidades, que con carácter abierto serán capaces de almacenar en discos de 12 cm un
máximo de 3 Gbytes. Otra de las bazas con las que cuentan es que se ha cuidado especialmente la
compatibilidad con los actuales sistemas lectores, para evitar un cambio traumático al usuario que acaba de
adquirir su DVD.
Coincidiendo con esta presentación, Verbatim produce discos DVD desde el año pasado y ya es capaz de
producir 200.000 unidades de discos DVD−RW (reescribible) y hasta 300.000 en el caso de los DVD−R. Para
ello se han modificado las cadenas de fabricación que tiene en Singapur de CD−R a DVD−R..
Sistemas magnéticos: Este tipo de dispositivos se están popularizando en gran medida, y como muestra de ello
tenemos la conocida unidad Zip de Iomega, un pequeño disco en el que es posible almacenar hasta un máximo
de 100 Mbytes. También existe la unidad Zip Plus, cuya diferencia clave con su antecesor radica en que es
una unidad externa con la posibilidad de ser conectado a ordenadores con SCSI o con puerto paralelo (ambos
15
conectores en la misma carcasa).
A la posibilidad de comportarse como una unidad multiplataforma se le añade una cuota de unidades ya
instaladas muy elevada. Y otro de los grandes avances de Iomega es la creación de un nuevo formato, el
Iomega Click. Con este nuevo concepto del almacenamiento de la información, Iomega pretende condensar un
total de 40 Mbytes de datos en un disco de tamaño inferior al de la palma de la mano.
Del mismo fabricante, tenemos el denominado Jaz2, capaz de almacenar un máximo de 2 Gbytes de
información en un disco de similares características al que utiliza en estos momentos su hermano pequeño.
Por supuesto, la compatibilidad con el antiguo formato queda garantizada, con lo que toda la información que
tengamos podremos seguir utilizándola con las unidades Jaz2.
Otra de las alternativas para el almacenamiento masivo de información nos llega de la mano de SyQuest, una
prestigiosa empresa que está luchando continuamente por ofrecer productos nuevos. En este momento, su
abanderado es la unidad SparQ, capaz de gestionar hasta un «giga» de información, y que se sitúa en clara liza
contra el Jaz. En este modelo encontramos dos puntos fuertes como ventaja con respecto a su cercano
competidor: la posibilidad de conectarlo a través de puerto paralelo y al propio controlador IDE; y el coste de
los cartuchos, situado por debajo de la mitad del precio de los de las unidades Jaz.
De esta última casa nos queda por comentar un producto que está atrayendo una gran atención, y que puede
considerarse el competidor directo del conocido Zip. Así, el EZ−Flyer es un sistema doméstico de
almacenamiento, capaz de proporcionar un total de 230 Mbytes de espacio total, mediante cartuchos
intercambiables.
Otro serio competidor que nos encontramos en el mercado actualmente es la unidad LS120 de Imation
(empresa del grupo 3M), que es capaz de almacenar hasta un total de 120 Mbytes, con un precio realmente
ridículo. Su conexión con el PC se realiza como si de otro dispositivo IDE se tratase. Eso sí, requiere utilizar
BIOS de sistema actualizadas para poder aprovechar al máximo las capacidades de esta unidad.
Sistemas de Backups: Una serie de dispositivos de los que hoy en día no solemos escuchar muchas novedades
son las cintas de backup, sistemas de bajo coste para el almacenamiento de «réplicas» de información. Existen
distintos modelos y precios, entre los que destacan los producidos por Colorado Memory System (empresa
propiedad de Hewlett Packard) con el nombre de Travan. Estas unidades ofrecen capacidades de
almacenamiento entre los 3,2 y los 8 Gbytes de información.
Hewlett Packard ofrece tanto unidades externas para conectar al puerto paralelo como la familia orientada a
los profesionales, que disponen en su equipo de una controladora SCSI o pueden permitirse el adquirir una. De
todas formas, y a un nivel profesional, podemos optar por las más que eficaces unidades DAT, basadas en el
almacenamiento digital de información en cintas magnéticas de reducido tamaño.
El rival que planta cara a esta gran empresa es Iomega, que con sus unidades Ditto ha conseguido acaparar
una gran parte de los usuarios domésticos habitualmente ligados a HP. Las soluciones ofertadas por Iomega
alcanzan capacidades comprendidas entre los 3,2 y los 10 Gbytes, con la ventaja de que al mismo nivel de
eficacia sus productos son más baratos.
Lamentablemente, una de las grandes pegas que nos encontramos ante este tipo de periféricos es que la
información que guardamos en ellos se almacena de forma secuencial y no podemos acceder a la información
que deseemos a no ser que leamos toda la cinta.
Aparte de estos sistemas de almacenamiento, tenemos otras soluciones, como los magneto−ópticos
tradicionales, que se emplean para la trasferencia de grandes volúmenes de información. Existen distintos
tamaños que abarcan todas las necesidades de cualquier usuario; que comienzan en los 128 Mbytes y llegan
16
hasta los 640. Sin embargo, uno de los grandes inconvenientes de este tipo de dispositivos para el usuario
doméstico estriba en la necesidad de tener instalada una controladora SCSI.
Recomendaciones: Una vez que tenemos delante de nosotros este gran abanico de posibilidades, llega el
momento de la reflexión. Y dado que necesitamos alguno de estos dispositivos, hemos de buscar la forma de
que ésta no sea traumática y nos proporcione unos resultados excelentes.
En principio, debemos partir de la premisa de que «los dispositivos SCSI están reservados a usuarios medios o
profesionales». Si estamos dentro de este grupo, muy bien, pues ya hemos visto las distintas alternativas
existentes, con lo que podemos enfrentarnos a una decisión de compra desde el punto de vista de una persona
experimentada.
Para los usuarios del sector doméstico, las soluciones más eficaces se deben meditar en función de nuestros
deseos. Centrados ya sobre esta decisión, podemos optar por un sistema interno o externo, un disco duro o
algo removible, que a su vez nos permita llevarnos la información a otro lado.
Si realmente queremos disponer de un lugar en el que almacenar datos para mucho tiempo, resulta interesante
el utilizar una grabadora, aunque su precio resulta aún un tanto elevado. Si es prioritario el tener una copia de
nuestros datos más importantes, nos lanzaremos a la elección de un dispositivo de cinta, ya que su bajo precio
lo coloca como líder para este tipo de operaciones.
En definitiva, que cada vez resulta más clara la elección del usuario, puesto que se va dirigiendo de una forma
directa hacia la solución idónea. Como ya es habitual en este tipo de compras, la capacidad de
almacenamiento del dispositivo viene marcada por el nivel adquisitivo que se tenga en el momento de la
decisión.
Dispositivos ópticos: Hasta hace relativamente bien poco, añadirle al ordenador características multimedia
significaba poco más que enchufarle un lector de CD−ROM y una tarjeta de sonido, conectándole inlcuso los
altavoces de nuestro radiocasete portátil.
Sin embargo hoy en día la oferta es más amplia, comenzando por el propio microprocesador, que como hemos
visto, integra en su propio núcleo la esencia básica de las instrucciones multimedia (MMX, MMX2 o 3D Now).
Después de éste, nos encontramos con el clásico CD−ROM, con el más reciente DVD, con tarjetas de sonido
de hasta 128 voces, y altavoces profesionales con sonido envolvente.
En general, este tipo de compra va más orientado a estimular nuestros sentidos con un mundo de sensaciones
audivisuales, por lo que su adquisición vendrá dictada por algún capricho o por el deseo de disfrutar mejor de
algunos tipos de aplicaciones.
La base de todo sistema es la utilización de un sistema de almacenamiento masivo de gran capacidad, lo que
motivó ya hace varios años la explosión del CD−ROM. El camino recorrido en tan poco tiempo es
impresionante, puesto que de los 150 Kbytes por segundo que eran capaces de transferir las primeras unidades
se ha pasado a velocidades superiores hasta en 36 veces, es decir, a unos 5,4 Mbytes; mientras que los precios
han descendido un orden de magnitud de 10.
Sobre este dispositivo no nos extenderemos más de forma que podremos prestar mayor atención a su sustituto.
El futuro del CD−ROM como dispositivo multimedia fundamental aparece en entredicho ante la llegada del
que ya se perfila como su seguro sustituto, el DVD o (Digital Versatile Disc) o DVD−ROM.
Por todo esto podemos decir que ha llegado el momento en el que podemos disfrutar en nuestro hogar de las
películas tal y como las vemos en el cine, incluyendo la alta calidad de sonido de la que hacen gala
actualmente.
17
Cierto es que llevamos casi dos años oyendo hablar de las excelencias del DVD; que el pasado 1997
comenzamos a ver los primeros lectores de este formato; que en el mercado hay tanto kits domésticos como
sistemas para el hogar; pero no termina de encajar. Sí, tenemos un sistema muy eficaz, pero si no disponemos
de títulos que exploten las características de este tipo de dispositivos no habremos conseguido nada.
Esta situación ha cambiado este mismo año, ya que multitud de empresas están lanzando al mercado todo tipo
de productos para los lectores DVD.
El primer y más esperado lanzamiento ha sido el del vídeo doméstico ya que, es uno de los grandes pilares de
esta tecnología. Podemos ver nuestras películas favoritas con una calidad idéntica a la ofrecida en las salas de
cine, manteniendo su formato gráfico y un sonido excepcional, aunque para este último apartado resulta
necesario adquirir un equipo opcional.
Ya se cuentan por miles las producciones en el mercado internacional de DVD, con lo que podemos ver
claramente que la variación con respecto al pasado año se ha incrementado en casi un 200%. Y eso que tan
sólo llevamos pocos meses del año.
Empresas como Warner, Sony y Disney, representantes del gran mercado del vídeo doméstico, están
realizando grandes inversiones en la adaptación de sus títulos actuales a la nueva plataforma DVD. Realmente
el coste de esta adaptación no debe de ser excesivo, ya que consiste en realizar un master en formato DVD con
sus propias películas originales y añadir a él el resto de bandas de audio que sean necesarias en función de la
«zona» elegida.
Este título de «zona» viene impuesto por el conjunto de empresas que han elaborado el estándar DVD y han
dividido el planeta en partes, asignando un número determinado a cada una de ellas. Si obtenemos una
película cuyo código de «zona» no coincida con el nuestro, nos será imposible el reproducirlo en nuestro
ordenador o DVD vídeo, por lo que tenemos que prestar especial atención para ver que el distintivo de «zona»
sea la Europea (definida como 2)
El de los juegos es otro de los sectores que aprovechan de forma inteligente la gran capacidad de los DVDs, al
poder englobar en un solo disco el contenido de los cuatro o cinco CDs que actualmente ocupan sus
programas. También se podrán introducir secuencias de vídeo real mucho más largas y a la vez de mejor
calidad, sin tener que requerir unos procesadores muy potentes para poder reproducirlas.
Existen diversas empresas que ya han lanzado al mercado títulos en este formato, como por ejemplo Origin,
que utilizan el formato DVD para contener secuencias de vídeo de mejor calidad. Un claro ejemplo de esta
tónica la encontramos en Wing Commander IV, edición DVD, incluido por ejemplo en el kit de Creative y que
utiliza en profundidad la potencia del DVD para contener los cuatro discos originales del programa, o la
aparición de Encarta 99 en formato DVD, con atlas incluido.
Como inciso diremos que por mucho que nos empeñemos en decir lo contrario, uno de los productos más
comercializados en cualquier clase de plataforma, vídeo, Laserdisc, VideoCD y ahora en DVD son las
producciones de carácter erótico y pornográfico. Buena muestra de ello lo representa la empresa Vivid
Interactive, que desde el año pasado ha estado lanzando títulos en este formato y actualmente cuenta con más
de 20 películas disponibles en su catálogo y la elaboración continúa.
¿Cambiar CD−ROM por DVD− ROM?
Uno de los aspectos que más aterroriza a la hora de cambiar nuestro querido lector CD por el flamante DVD,
es la posibilidad de que no sea capaz de reconocer los discos que habitualmente utilizamos o los que nos
hemos creado. Bien, ha llegado el momento de comentaros que esto no es problemático, aunque varía en
función del tipo de DVD escogido.
18
La mayoría de los lectores DVD soportan todos los formatos actuales de CD, incluidos el CD−R(discos
grabados) y los CD−RW (regrabables con soporte UDF), aunque nos hemos encontrado excepciones que no
soportan estos dos últimos formatos.
Debido a que el tamaño del punto de datos de la superficie del disco es mucho más pequeño que el empleado
en los convencionales lectores CD−ROM, hay que utilizar un haz láser de mucha mayor precisión. Según el
tipo de láser empleado podremos acceder a la totalidad de los discos disponibles o no. El acceso a los discos
estampados normales resulta transparente para todos los lectores. Si deseamos acceder a los datos
almacenados en un CD−R tendremos que disponer de un sistema de láser dual, un haz para cada tipo.
El caso de los discos CD−RW es un poco distinto, ya que el diseño del DVD se ha realizado contando con que
serán el estándar, así que su compatibilidad es directa. Además de la posibilidad de acceder a nuestros
programas en los CDs convencionales, se ha tenido en cuenta la necesidad de reproducir discos de audio
(CD−DA) como si de un lector normal se tratase.
E incluso la reproducción del clásico VideoCD establecido por Philips es posible con muy pequeños añadidos,
ya que al fin y al cabo se trata de datos en formato MPEG−1. Aunque hay fabricantes como Toshiba que no
han implementado esta posibilidad, existen distintas aplicaciones software que permiten acceder a los datos y
por tanto reproducirlo. El soporte de CD−i no está implementado, aunque Philips ha anunciado su intención
de lanzar un DVD compatible con este formato.
Tal y como hemos indicado, el DVD es uno de los pilares de los nuevos sistemas de vídeo digital, ya que para
completar las tareas de descodificación necesitamos un ordenador capaz de manejar el estándar MPEG−2. No
todos los ordenadores vienen equipados con este tipo de tecnología, porque la incorporación del sistema de
descompresión es relativamente caro y complejo.
Pero para que comprendáis cuál es la base de toda la arquitectura de comprensión del DVD, tenemos que
comenzar entendiendo que MPEG es el estándar en sistemas de compresión de datos. Gracias a estos
algoritmos de compresión podemos convertir sonidos y películas a un archivo en un formato de fácil
transferencia, ya que su tamaño es considerablemente inferior a los datos originales.
El primer estándar utilizado, que recibe el nombre de MPEG−1, es capaz de reproducir vídeo y audio a una
velocidad de 150 Kbytes/s (similar a la velocidad de los CD−ROM 1x). Para ello, se encarga de analizar las
distintas imágenes de la secuencia de vídeo y almacenar solamente las diferencias ocurridas entre las
imágenes.
Lamentablemente la calidad proporcionada por este tipo de técnicas era aceptable para TV pero no para cine,
con lo que la investigación continuó hasta llegar a la creación del denominado MPEG−2. Este estándar sigue
proporcionando un nivel de compresión muy elevado, ofreciendo una calidad de imagen similar a la de los
conocidos laserdisc y una sonido de calidad CD. De hecho, este es el sistema elegido para la retransmisión de
programas vía satélite y DVD.
Aparte del hardware de descompresión de vídeo necesario para acceder al contenido del DVD, tenemos que
utilizar unas aplicaciones específicas que sean capaces de reconocer los códigos regionales. Estos códigos
permiten la reproducción de las películas encriptadas y con protección anti−copia.
Se ha calculado que entre un 10% y un 30% de los ordenadores que se vendan con DVD incluirán una tarjeta
específica de descompresión hardware. El resto de los sistemas utilizarán un sistema de descodificación
MPEG−2 basados en software, con lo que los usuarios que posean un equipo de proceso rápido podrán
disfrutar de estas películas sin invertir en una tarjeta dedicada.
Si importante es la calidad de la imagen obtenida en la descompresión de la información, igual de importante
19
es la fidelidad con la que podamos reproducir los distintos sonidos que acompañan al vídeo. Entre las distintas
opciones que ya hemos comentado de diferentes idiomas (hasta ocho) podemos disfrutar de una claridad de
sonido excepcional y, sobre todo, sentirnos rodeados por él.
Para disfrutar de una calidad de sonido excepcional, la conocida empresa de sonido Dolby desarrolló en el año
1995 su proyecto de sonido digital con calidad broadcast, que actualmente ha evolucionado y desde 1997 se
utiliza en los sistemas DVD. Esta tecnología, denominada Dolby AC−3, se desarrolló pensando en la
necesidad de procesar sonido desde distintas fuentes de generación, con una velocidad muy alta y sobre todo
dejando una puerta para necesidades futuras.
Por tanto, lo más significante del Dolby Digital es la combinación de una alta calidad de sonido con un
destacable ratio de eficacia. Gracias a su alta compresión, podemos disponer de un canal surround en el
mismo espacio que ocupa una pista de sonido convencional en un CD. La verdadera potencia del sonido
Dolby digital la encontramos cuando realmente disponemos de un sistema de reproducción apropiado,
compuesto de: canal izquierdo, canal derecho, altavoces centrales frontales, altavoces surround laterales y un
subwoofer.
Gracias al preciso control de la señal de sonido, que se ha codificado en función del altavoz que se encargará
de repetir la señal, podemos controlar en todo momento el lugar desde el que se emitirá el sonido. Como es
lógico pensar, para recuperar toda esta calidad es necesario disponer de un equipo apropiado. La mayoría de
los sistemas DVD convencionales incorporan un descodificador de AC−3, que colocan en la salida de señal
analógica, pero poco más.
Por tanto, si queremos conseguir oír el mismo sonido que el que tendríamos en una sala de cine convencional,
necesitamos adquirir aparte del propio lector DVD y la descodificadora MPEG un sistema descodificador
Dolby. Este equipo no resulta nada trivial, ya que junto con el equipo deberemos adquirir todo el conjunto de
altavoces necesario, con lo que el típico precio de 45.000 pesetas de un kit de DVD para nuestro PC se puede
elevar considerablemente.
Un descodificador de Dolby Prologic, que no nos proporciona toda la calidad del sistema DVD, puede
costarnos aproximadamente 40.000 pesetas; a esta cantidad hay que unir el coste de los altavoces, que puede
ser de 6.000 pesetas. Si pensamos que debemos adquirir un total de cuatro, aparte de los dos que tengamos
convencionales, podemos ver cómo el coste de todo el conjunto se nos ha puesto en las 114.000 pesetas.
Recomendaciones: Antes de decidiros a comprar uno u otro de los modelos, procurad que os hagan una
pequeña demostración, seguramente tendrán algún equipo configurado con todo el sistema ya montado.
Pensad en la posibilidad de adquirir un kit completo si no vais a tener una tarjeta descompresora en un corto
plazo de tiempo, ya que si no, no podréis disfrutar del vídeo a pantalla completa.
Otra consideración final, con la implantación de las especificaciones PC 99, las nuevas tarjetas gráficas
vendrán dotadas de añadidos que potenciarán las mismas. Entre estas nuevas opciones se encuentran la salida
compuesta de vídeo para televisión y descompresión de vídeo MPEG−2 para los DVD.
Dispositivos ópticos
Modelo
CD−ROM Creative 36x IDE
CD−ROM 40x 40x IDE
CD−ROM Plextor 40x SCSI
DVD Hitachi 4x
DVD Pionner 6x
Precio
6630 ptas
8580 ptas
14400 ptas
17190 ptas
20000 ptas
20
3. − Componentes externos
A
hora pasaremos a describir los componentes externos de un ordenador que también son importantes a la hora
de realizar la compra de éste. Tan importante es un monitor o una impresora como periféricos de salida como
no hay que olvidar el ratón, el teclado, altavoces o escáner. En definitiva, ahora nos interesa todo lo que
podemos ver de un ordenador desde fuera.
3.1. − Caja
Descripción: La caja es la que da cabida a practicamente todos los componentes internos de un ordenador. En
ella se sitúa la placa base sujentándose con unos tornillos a dicha caja. Apartir de ahí los componentes
internos irán insertados en distintas ranuras específicas para cada uno. Actualmente las cajas vienen encajadas,
es decir, los laterales se desencajan para proporcionar un mejor acceso a los componentes insertados en la
placa base, aunque suelen atornilladas por detrás. El la parte anterior presenta los clásicos botones de
arranque, reinicio y dos leds indicadores de encendido y de actividad del disco duro. También asoman las
partes delanteras tanto de la disquetera como del CD−ROM aunque cada caja presentará un diseño.
En la parte posterior se observan las salidas de todas las tarjetas que las tengan así como las salidas de la placa
base. Así nos encontraremos con las salidas de la tarjeta de sonido; Line in, Line out, Mic y/o Surround.
De la tarjeta de video debe estar una clavija para conectar el monitor y pueden estar salidas como TvOut, S/Pif
(compuesta de video) entre otras.
En cuanto a las salidas de la placa base, ya comentamos que éstas constan de 2 puertos USB, 1 pueto paralelo,
2 puertos de serie, y dos salidas PS/2 para el ratón y/o el teclado.
Recomendaciones: El elemento más importante de la caja sin niguna duda es la fuente de alimentación en la
cuál se basa el componente eléctrico de los componentes que hay dentro. Ésta suele ser de 230W en las cajas
ATX (para placas ATX) lo que significa que es capaz de soportar hasta esa potencia. Aún así, mucha sveces la
electricidad que viene por el cableado no es de calidad dando saltos en cuanto a su intensidad lo que
contribuye a su lenta degradación. Si al comprarnos el ordenador vivimos cerca de una estación de
didtribucíon, generador o polígono industrial (que suelen necesitar muvha potencia en Watios) es
recomendable adquierir un SAI (estabilizador de corriente que asegura la entrada correcta de electricidad en el
ordenador y actúa de condensador asegurando así un flujo seguro aún cuando no exista corriente eléctrica.
Cajas
Modelo
Caja Semitorre 230W ATX
Caja Semitorre 235W ATX
Caja Gran Torre 235W ATX
Precio
5900 ptas
8580 ptas
14400 ptas
3.2. − Monitor
Los monitores son fundamentales hoy en día para la visualización de la información en pantalla y constituyen
el principal periférico de salida de un ordenador. Toda la información generada por el ordenador se muestra en
el monitor.
Descripción: Actualmente existen dos tipos de monitores en el mercado que son los que predominan: los del
tipo CRT (tubo de rayos catódicos) y los LCD (cristal líquido). A estos últimos les dedicaremos un poco más
21
de tiempo ya que son el futuro, y además los CRT se asemejan bastante en composición que no en
funcionamiento a un televisor.
CRT: son los monitores clásicos dentro de la informática y su característica principal en que son asequibles.
Estos monitores, al igual que los LCD necesitan de la ayuda de la tarjeta gráfica para mostrar todas sus
cualidades a pesar de que en las placas modernas existen chips que hacen funcionar al monitor sin necesidad
de tarjeta, si bien esto se produce a resoluciones escasas.
LCD: son más conocidos como monitores planos y de ellos vamos a hablar más en detalle debido a la
novedosa tecnología que implementan.
Descripción: Hasta hace poco era incuestionable que las pantallas LCD tenían una penetración bastante escasa
con respecto a los monitores convencionales (CRT), sus aplicaciones eran limitadsas y sus precios
prohibitivos. Afortunadamnte, el desarrollo de tecnologías TFT no sólo ha provocado un abaratamiento de
costes sino que ha permitido aumentar su presencia en mayores campos de actividad, y por consiguiente ha
logrado situarse en clara competencia frente a los CRTs. En cierta manera la pelea por aumentar cuota de
mercado, se inició cuando de apostó por un tamaño de pantalla mayor (14, 15 pulgadas) al tiempo que se
mejoraron las resoluciones desde 800x600 en XGA hasta 1024x768 en SVGA. En este punto es importante
recordar que un monitor TFT de 15 pulgadas equivale a uno CRT de 17.
Pasemos a explicar en que consiste esta tecnología para saber con que vamos a tener que enfrenternos en un
futuro.
Este tipo de pantallas se basa en la tecnología LCD (Liquid Crystal Display). Fundamentalmente, se compone
de cristales líquidos, es deicr moléculas en un estado híbrido líquido−gaseoso denominado isotrópico que se
distribuyen entre dos filtros polarizados (en el caso de los monitores) sin ningún orden aparente. Ambos filtros
se ubican uno enfrente del otro pero no de forma totalmente simétrica sino que uno mantiene un viraje de 90
grados con respecto a su eje tranversal, esto es lo que se conoce como tecnología Twisted Nematic (TN) y se
aplica a las pantallas de LCD activo. Si hicieramos pasar un haz de luz a través de los dos filtros se observaría
como los cristales líquidos de giran formando una espiral.
En los sistemas de matriz pasiva no se puede aplicar la tecnología TN, ya que sería muy difícil controlar el
contraste que se produce entre las distintas líneas, por lo que se aplica la tecnología Super Twisted Nematic
(STN), que consiste en girar el filtro situado en la parte anterior 270 grados con respecto al posterior.
Internamente la luz pasa por el polarizador y golpea a la molécula de cristal líquido para que esta reoriente la
luz en el ángulo de orientacíon de las moléculas. De esta forma, cuando la luz alcanza el polarizador frontal,
que se encuentra virado (como ya se ha comentado anteriormente), está en la posición correcta y en
disposición de ser visionada de forma correcta por el usuario que estará al otro lado del frontal.
Al igual que la luz sigue la orientacíon del cristal en su rotación para que se puedan ver las imágenes en la
pantalla, al aplicar un campo eléctrico entre dos filtros polarizados anterior y posterior logramos que la luz
quede alineada con un ángulo de 90º con respecto al filtro, de aquí que no pueda pasar la luz al observador y
la pantalla quede en negro.
Pero todo esto solo produce imágenes en blanco y negro, para obtener color la luz que pasa debe ser filtrada
nuevamanete utilizando unos filtros de colores. Para ello cada pixel está constituido por 3 subpixels con los
colores rojo, verde y azul. En función de las imágenes que se vayan a representar por pantalla se aplicarán
unos determinados voltajes a cada uno de los subpixels consiguiendo de esta manera el tono de color deseado.
Es decir, el punto que vemos está realmente formado por tres niveles de transparencia del cristal líquido que al
pasar por los filtros y estar tan sumamente juntas, nuestro ojo las percibe como si de un solo punto se tratase.
Con respecto al control de las células LCD, distinguimos entre matriz activa (AMLCD) y pasiva (PMLCD
22
relacionada con STN). En el segundo caso las células individuales están controladas por una matriz tipo cuyos
electrodos están distribuidos en líneas y columnas. Esto significa que cada célula individual solo es activada
por un impulso electrico durante toda la representación de la imagen en la pantalla, como las células no están
bajo voltaje, el cristal líquido debe ser suficientemente activo como para prevenir el corte de la señal y así
evitar las perdidas de contraste y el efecto de parpadeo. Una solución que se ha aplicado con tal de evitar tales
parpedeos es fraccionar el display en dos mitades horizontales (Dual Scan Display) para aumentar el tiempo
de permanencia de la imagen en pantalla. No obstante, también se puede duplicar la frecuencia con la que la
célula es activada para obtener el mismo beneficio.
En el caso de la matriz activa (TFT), cada célula es activada por una delgada película de trasistores localizada
en una lámina de cristal posterior, la cual contiene información para la célula correspondiente. De esta manera
cabe la posibilidad de utilizar más rápidamente los cristales líquidos dando como resultado un mejor contraste,
la ausencia de parpadeo, y un tiempo más corto de respuesta.
Recomendaciones: Indudablemente a la hora de plantearnos la adquisición debemos tener en cuenta las
tendencias del mercado con respecto a estos periféricos.
De momento el mercado de pantallas TFT está centralizado en la mejora de los portatiles, pefeccionando la
calidad de la imagen que se le proporciona a éste e incrementando el tamaño del display. En cuanto al
segmento de sobremesa hay que decir que aunque se han mejorado mucho las prestaciones de los LCDs,
siguen sin llegar a ofrecer las posibilidades de los monitores CRT. Es decir, las pantallas están hecha para
trabajar a una resolución fija, cantidad que en los modelos analizados se situaba en los 1024x768. De hecho, si
obligamos a las mismas a trabajar fuera de resolución perderemos calidad de imagen.
Por otro lado la imagen que ofrece este tipo de dispositivo de cara al público es innovadora y espectacular.
Otro aspecto novedoso, que potencia la venta de estos periféricos en empresas es el ahorro que se consigue
frente a los CRTs, puesto que al ser menos voluminosos calientan menos el ambiente y se ahorra energía con
el aire acondicionado, además su consumo es menor.
En resumen se puede hablar de que la tecnología aplicada a este tipo de pantallas ya comienza a plantar cara
de manera seria a los monitores CRT. Esto significa que en pocos años los CRTs acabarán siendo sustituidos
por la tecnología LCD.
Monitores
Modelo
Nokia 15 CRT
Philips 107−S 17 CRT
Sony 400 PST 19 CRT
Philips 15 LCD
Nec 15 LCD
Precio
32900 ptas
53500 ptas
124500 ptas
152500 ptas
169900 ptas
3.3. − Altavoces
¿De que sirve la mejor tarjeta de sonido del mercado, si en nuestro ordenador no tenemos altavoces?.
Aunque pueda parecer una pregunta absurda, lo cierto es que muchos usuarios cuentan con una tarjeta de una
calidad muy alta, pero la están infrautilizando a través de unos altavoces que, que ni por asomo son capaces de
reflejar toda la calidad de sonido que ésta ofrece. Por ello, debemos ser conscientes en primer lugar de que se
hace necesario el uso de unos altavoces equiparables a las prestaciones de nuestra tarjeta.
23
Descripción: Actualmente existen bastantes ejemplares que cubren la oferta más común que existe en el
mercado. Se trata de modelos que van desde lo más sencillo (una pareja de altavoces estéreo), hasta el más
complicado sistema de Dolby Digital, con nada menos que seis altavoces, pasando por productos intermedios
de 4 o 5 altavoces. Sin duda alguna, se nota prefectamente el esfuerzo que todos los fabricantes han realizado
para ponerse al día en esta tecnología, ya que en poco tiempo han incorporado a su tecnología desarrollos
basados en Dolby Surround o Dolby Digital.
De esta forma, los modelos que reúnen éstas características se convierten en un sistema muy completo y
eficaz, para la representacíon real de sonido.
Los más avanzados constan de 4 alltavoces (2 delanteros y 2 traseros) de reducido tamaño, otro más central
para los diálogos y un último altavoz mucho más voluminoso que se encarga de realzar las fuerzas de los
graves. Hasta aquí todo parece indicar que se trata de otros juegos de altavoces cuadrafónicos. Pero la
diferencia principal de estos sistemas es que incorporan un descodificador Dolby Digital, mediante el cual,
podremos ajustar los volúmenes de cada juego de altavoces, así como aplicar diferentes filtros de sonido en
funcíon del tipo de sonido que estemos reproduciendo en cada momento (música, película...etc). Para sacar
partido de estos altavoces es necesario que nuestra tarjeta de sonido cuente con una salida S/PDIF de Dolby
Digital ya que a través de ésta es desde donde los conjuntos de altavoces toman el sonido.
La desventaja de este tipo de unidades suele ser la calidad de las mismas. Teniendo en cuenta el precio de este
tipo de conjuntos, en el que se incluye un aparato decodificador, la calidad de los 6s altavoces no puede ser
especialmente buena, aunque para un uso casero resulta más que válida. Otra cuestíon es la potencia.
Tratándose de altavoces pequeños y baratos no conseguirán una fildelidad de sonido muy grande a poco que
la habitación tenga un tamaño medio.
En cualquier caso los equipos basados en Dolby Digital son muy escasos por el momento y debemos recurrir a
equipos grandes si deseamos una calidad de sonido suficiente y por tanto será inevitable gastar una cantidad
de dinero bastante importante. La opción que si está más extendida por el momento son los altavoces
cuadrafónicos convencionales que suelen contar con el apoyo de un subwoofer. Así mismo, por regla general,
cuentan con dos altavoces traseros, los cuales comparten un mismo canal de sonido y por tanto no existe
sonido estéreo en la parte de atrás. Aún así, para valorar un sitsema de altavoces no sólo debemos atender al
número de canales o salidas sino también a la calidad de los mismos. Es importente que soporten una cierta
potencia y que las unidades encargadas de gestionar las altas frecuencias (sonidos agudos) sean de calidad, ya
que en ellas se encierra el secreto de la calidad.
Pero ¿Qué son Dolby Prologic Surround y Dolby Digital?
Los dos sistemas se apoyan en una disposición de altavoces similar, diferenciándose en la forma de
manejarlos, lo que demuestra claramente que el sistema Dolby Digital es una evolucíon del otro.
La primera tentativa de sonido envolvente fue denominada Surround y estaba basada en la utilización de 4
altavoces y un subwoofer, con lo que la sensación de sonido a nuestro alrededor era mayor que antes.
Lamentablemente, el sonido que teníamos a nuestra espalda era el mismo que teníamos al frente pero con un
pequeño retraso lo que producía la sensación de que el sonido nos atravesaba desde delante hacia detrás. Pero
este sistema ha sido notablemente mejorado para controlar de forma independiente cada altavoz.
El sistema Dolby Surround se encuentra actualmebnte en su versión 5.1 (empleada en DVDs). Este, ha
conseguido implantarse de forma masiva en muchos de los equipos de música domésticos dado que ofrecen
una calidad de sonido bastante buena con un coste realmente reducido. Basicamente se trata de un sistema de
5 altavoces apoyados por un refuerzo de graves, separados en un total de 4 canales de sonido. La separación
entre estos canales se realiza mediante un sofisticado procesador que separa a partir de una señal de audio, los
sonidos dirigidos a cada altavoz en función de la posición de procedencia.
24
De cara a solucionar las limitaciones de este sistema se creó el Dolby Digital AC−3 o Dolby Digital. Este
sistema se distingue del anterior por un hecho que aunque simple supone un cambio absolutamente radical: su
inteligencia.
Estos sistemas cuentan ya con un procesador capaz de gestionar el sonido inteligentemente. Dicho procesador
se encarga de separar el sonido de los 5 altavoces y, en este caso, envía una señal distinta a cada uno de ellos,
de modo que hasta en los altavoces posteriores el efecto estereofónico es completo. Además el sonido enviado
a los altavoces traseros no es el mismo que el de los delanteros sino que es uno distinto que permite hasta
situar objetos detrás de nuestras cabezas. También se posibilita la conexión de un altavoz de graves que se
encarga de potenciar los sonidos de baja frecuencia para conseguir verdadera credibilidad.
El aspecto negativo de esta opción es el precio. No sólo debemos adquirir un sistema de 5 o 6 altavoces sino
que debemos pagar por un procesador de señales digitales que se encargue de repartir el sonido.
Para terminar vemos una tabla con las opciones más actuales:
Fabricante
Crative Labs
Guillemot
Microsoft
Philips
Philips
Zoltrix
Zoltrix
Potencia
19W/6.5W
30W/10W
80W/32W
600W/30W
600W/30W
600W/60W
300W/60W
Satelites
5
2
2
2
2
2
2
D.Digital
Si
No
No
No
No
No
No
D.Suround
Si
No
No
No
No
No
No
Precio
37845
22405
34474
10284
23190
−
−
3.4. − Impresoras
De todos es sabido que existen varias tecnologías de impresión y por tanto varios tipos de impresoras, pero
aquí sólo vamos a tratar la tecnología de inyección debido a que las impresoras matriciales no ofrecen tanta
calidad (aunque si más velocidad) y las láser suelen escaparse del presupuesto doméstico.
La tecnología de inyección a tinta es la que ha alcanzado un mayor éxito en las impresoras de uso doméstico o
para pequeñas empresas, gracias a su relativa velocidad, calidad y sobre todo precio reducidos, que suele ser
la décima parte de una impresora de las mismas crácteristicas. Claro está que hay razones de peso que
justifican éstas características, pero para imprimir algunas cartas, factiras y pequeños trabajos, el rendimiento
es similar y el coste muy inferior.
Hablamos de impresoras de color porque la tendencia del mercado es que la informática en conjunto sea en
color. Esta tendencia empezó hace una década con la implantación de tarjetas gráficas y monitores en
color.Todavía podemos encontrar algunos modelos en blanco y negro pero ya no son recomendables.
Las impresoras de inyección cuentan a favor con elementos como el coste, tanto de adquisición como de
mantenimiento, la sencillez de manejo y el tamaño. En contra tenemos su escasa velocidad y calidad frente a
otras tecnologías.
Descripción: Empecemos por el coste, considerando tanto el de compra como el de mantenimiento a lo largo
de la vida útil del aparato. El coste medio de una impresora de inyección en color viene a ser de una 30000 a
50000 ptas, lo que no supone demasiado esfuerzo para el pequeño usuario o para pequeñas empresas.
A esta cifra hemos de añadir el coste de los consumibles, que aunque no lo parezca puede ser más importente
que el de la propia impresora. Impresoras solo compramos una pero cartuchos de tinta podemos comprar
25
decenas durante la vida del aparato. El rango de precios entre los que se mueven los cartuchos de tinta están
entre las 2000 y las 5000 ptas, dependiendo del modelo y distribuidor. Un consumible al que se le presta poca
atención pero el que tyamboén se lleva un buen pellizco es el papel, aunque pocos son los asuarios que
utilizan papel de calidad o el que distribuye el fabricante optando la mayoría por paquetes de 100 o 500 DIN
A4 de uso general. La verdad es que ni las fotocopiadoras admiten bien este tipo de papel de fibra estrellada y
poco grosor, que rteduce la calidad de impresión y es causa de bastantes problemas.
Volviendo a las ventajas de la tecnología de inyección, la sencillez de manejo puede ser una de las fuertes
aunque menos evidente. Dicen que nadie aprecia lo que tiene hasta que lo pierde, y posiblemente tendríamos
que instalar un par de veces una impresora láser para darnos cuenta de lo fácil que resulta manejar una de
inyección.
En lugar de manejar cartuchos de tóner, botellas de fusor, unidades fotoconductoras, un mecanismo de arrastre
complejo y bandejas múltiples, el manmtenimiento de un modelo de inyección se limita a levantar las tapas de
las guías y sustituir los cartuchos gastados. Esta facilidad se ha extendido al software de control, que
habitualmente nos permite resolver la configuración del trabajo seleccionando un tipo de documento
seleccionado como documento en grises o carta con gráficos en color.
Tamaño y peso son otra ventaja de la inyección. Si tenemos la tentación de pensar que una impresora de
inyección es grande, conviene que le echemos un vistazo a una impresora láser color normalita que ronda los
40 kilos y tiene medio metro en todas las dimensiones.
Hasta aquí los aspectos positivos. En la parte negativa las impresoras de inyección son ante todo bastante
lentas. Por mucho que los fabricantes se empeñen en poner en la publicadad que sus im,presoras alcanzan 3, 4
o 6 páginas por minuto (ppm), esta es una marca que solo se obtiene haciendo copias de un mismo original
sencillo.
La velocidad es un asunto subjetivo más que objetivo en las impresoras de ineción y que el resultado depende
de muvhas cosas, del tipode documento de la velocidad del ordenador que usemos e incluso de cosas tan
banales como los atascos ocasionales de inyectores que surgen de vez en cuando. Todo esto influye en la
velocidad finel y podemos darnos por satisfecho si en un documento de 10 páginas con gráficos en color y
adornos obetnemos dos por minuto. La calidad es el otro Talón de Aquiles de la inyección, a pesar de todoa
los avances realizados. En este aspecto, sin embargo, queremos diferenciar la impresión de texto de la de
gráficos en color y muy especialmentwe la de fotos. En lo que respecta a las cartas de texto los modelos de
inyección han alcansazo una perfección sin igual y existen models que rivalizan en calidad con impresoras
láser. En gráficos, por el contrario, las cosas son muy flexibles mientras que obtener un gráfico en color con
una láser es bastante sencillo, deben darse unas condiciones muy concretas para lograrse una calidad parecida
con una máquina de inyección.
Para entender mejor las limitaciones de la inyección en conveniente que expliquemos sus pincipios de
funcionamiento. En kla actualidad exisyej dos tecnologías predominanrtes: la piezoeléctrica y la térmica, con
marcas que defienden una u otra a capa y espada. Las dos hacen lo mismo, poyectar gotas de tinta sobre una
superficie de papel a una velocidad muy elevada. Cuando la tinrta entre en contacto con el aire empieza a
evaporarse y a los pocos segundos de caer sobre el papel solo queda un residuo seco que es lo que vemos.
La diferencia entre las dos tecnologías e la forma en que se consigue inyectar o hacer saltar la gota de tinta
sobre el cabezal hasta el papel. En un mecanismo piezoeléctrico se aplica una tensión a un cristal de cuarzo
que oscila y crea ua depresión tres una membrana.esta depresión absorve la gota de tinta, de forma que cuando
la membrana recupera su posición, el colchón de aire empuja la gota hacia delante.
En un mecanismo térmico tenemos una resistencia frente a la misma ventana de expulsión. Cuando hay que
imprimir un punto la resistencia se calienta en un tiempo rapidísimo provavando la evaporación de parte del
26
líquido de la tinta. Literalmente, esta explota hacia delante saliendo disparada hacia el pepel.
No está muy claro que una sea mejor que la otra pero ambas lanzan una gota líquida hacia el papel. Ahora
bien ¿Qué pasaría si lanzasemos un globo de agua desde un segundo piso hatsa el suelo? Lo más lógico es que
explote dejando una figura estrellada sobre el asfalto. Esto mismo es lo que pasa con la tinta, un fenómeno
que se agrava con el uso de paeples de mala calidad, que tienen una fibra muy estridada lo que favorevce la
disprsión del líquido. No se trata por tanto de un problema de puntos por pulgada; en intyección una imagen
no es mejor por tener más puntos sino por ser más precisa, y para conseguirñlo hace falta utilizar papeles
satinados, de poca fibra, que lamentablemente son caros.
La consecuencia de todo esto, es que hay fabricantes que combinan mejor que otros, cabezales, inyectores y
tintas para conseguir un rendimiento aceptable sobre papel malo. En las impresoras láser esto no ocurre
porque la tinta es sólida y en el momento en que ésta se deposita sobre el papel queda adherida a él sin
moverse.
Una última consideración en cuanto a seguridad se refiere viene a indicarnos que éstas impresoras revelan un
conjunto pésimo de medidas de seguridad. Por supuesto que no va ha explotar ni nada parecido pero si que es
cierto que existen dos casos bastantes comunes en los que si se pueden producir pequeñas lesiones.
Cuando queremos imprimir un documento y nos damos cuenta de que éste es el equivocado la acción de tirar
del papel es perjudicial para el mecanismo de tracción de la impresora y pocas de ellas detectan esto en menos
de 2 segundos, lo que es más que suficiente para pillarse los dedos.
El otro problema encontrado es que ante la curiosidad innata del ser humano de levantar la tapa de la
impresora para ver como el cabezal se mueve ninguan impresora estudiada para el mecanismo con el
consiguente peligro de heridas leves en los dedos o introducción accidental de pelo largo.
Recomendaciones: A la hora de hacerse con una de estas impresoras es necesario tener en cuenta algunos
aspectos como la velocidad, el precio de la impresora y el de los consumibles así como la resolución
alcanzada. Este cuadro nos aclarará más las ideas:
Modelo
Olivetti JP192
Olivetti JP883
Lexmark Optra Color 45
Lexmark Color Jetprinter
Epson Stylus Color 440
Epson Stylus Color 740
Hewlett Packard 2000CL
Canon BJC 50
Resolución
600x300
1200x600
600x600
1200x1200
720x720
1440x720
600x600
720x360
Velocidad B/N
3 ppm
6 ppm
8 ppm
6 ppm
4 ppm
6 ppm
8 ppm
5,5 ppm
Velocidad color
N.D.
N.D.
4 ppm
2.5 ppm
1 ppm
1 ppm
3.5 ppm
N.D.
Precio
23300 ptas
35900 ptas
139000 pats
32900 ptas
20400 ptas
48900 ptas
240000 ptas
64900 ptas
3.5. − Ratón
Sobre el ratón poco hay que decir, simplemente que es un periférico de entrada, que es el sistema que utilizan
el sistema operativo de ventanas, en el que se basan los modernos lenguajes de programación y que existen
varios tipos.
Descripción: A este periférico se le llamó así por su parecido con este roedor. Suelen estar constituidos por
una caja con una forma más o menos anatómica en la que se encuentran dos botones que harán los famosos
clicks de ratón siendo transmitidos por el cable al puerto PS/II o al puerto de serie (COM1 normalmente).
27
Dentro de esta caja se encuentra una bola que sobresale de la caja a la que se pegan 4 rodillos ortogonalmente
dispuestos que serán los que definan la dirección de movimiento del ratón. El ratón se mueve por una
alfombrilla ocasionando el movimiento de la bola que a su vez origina el movimiento de uno o varios de estos
rodillos que se transforma en señales eléctricas y producen el efecto de desplazamiento del ratón por la
pantalla del ordenador.
Existen modelos modernos en los que la transmisión se hace por infrarrojos eliminando por tanto la necesidad
de cableado. Otros presentan la bola en la parte superior de la caja no estando por tanto en concacto con la
albombrilla y teniendo que ser movida por los dedos del usuario aunque se origina el mismo efecto.
3.6. − Teclado
Casi todo el mundo sabe que un teclado es el periférico más conocido y el más utilizado para introducir datos
en el ordenador, es decir, es un periférico de entrada.
Descripcíon: Un teclado se compone de una serie de teclas agrupadas en funciones que podremos describir:
+ Teclado alfanumérico: es un conjunto de 62 teclas entre las que se encuentran las letras, números, símbolos
ortográficos, Enter, alt...etc.
+ Teclado de función: es un conjunto de 13 teclas entre las que se encuentran el ESC, tan utilizado en sistemas
informáticos, más 12 teclas de función. Estas teclas suelen ser configurables pero por ejemplo existe un
convenio para asignar la ayuda a F1.
+ Teclado numérico: se suele encontrar a la derech del teclado alfanumérico y consta de los números así como
de un Enter y los operadores numéricos de suma, resta, ... etc.
+ Teclado especial: son las flechas de dirección y un conjunto de 9 teclas agrupadas en 2 grupos; uno de 6
(Inicio y fin entre otras) y otro de 3 con la tecla de impresión de pantalla entre ellas.
Recomendaciones: En este apartado es conveniente distinguir entre dos tipos de teclado:
+ de membrnana: fueron los primeros que salieron y como su propio nombre indica presentan una membrana
entre la tecla y el circuito que hace que la pulsación sea un poco más dura.
+ mecánico: estos nuevos teclados presentan otro sistema que hace que la pulsación sea menos traumática y
más suave para el usuario.
4. − Conclusiones
En este trabajo hemos analizado todas las partes de un ordenador con objeto de dar a conocer su
microarquitectura. Algunas de ellas han sido detalladas con más precisión debido a que son nuevas
tecnologías, forman parte esencial del ordenador o simplemente porque están de moda.
Consciente de la dificultad que entraña la descripción de todos los componentes se ha tratado de hacer más
fácil añadiendo un glosario de términos que en bastantes casos aclara los conceptos de estos términos.
También se ha optado por incluir una lista de precios orientativos de los componentes más importantes del
ordenador que también ayudará al lector a tomar una decisión en cuanto a la calidad/precio de dichos
componentes.
En cuanto a estos precios se ha de decir que son orientativos puesto que durante la confección de este trabajo
28
han sufrido cambios, frecuentemente a la baja.
Para terminar se debe decir como consejo que a la hora de comprar un ordenador, a menudo no es necesario
fijarse en la última tecnología puesto que frecuentemente las necesidades que se tienen no llegan a tanto. Así,
no es lógico comprar el último modelo de Pentium (leasé P−III) para cuestiones ofimáticas.
Hay que tener claro que los mayores requerimientos se necesitan en el entorno lúdico (trabajos multimedia,
juegos...) que explotan la velocidad del micro y la tarjeta gráfica a su máximo nivel, pero la cuestión es: si lo
que se quiere es jugar, ¿Porqué no comprarse una consola de moda cuyo precio se encuentra al mismo nivel
que la última tarjeta gráfica? . La solución: consumismo.
Glosario de términos
3D−Now!: Conjunto de instrucciones desarrolladas por AMD para acelerar las operaciones 3D de sus
microprocesadores.
440 BX: Chipset desarrollado por Intel para dar soporte a sus P−II y a las nuevas características de las placas.
440 LX: Chipset de Intel para Pentium−II.
AGP/AGP2x/AGP4x: Ranura de expansión creada por Intel específica para tarjetas gráficas que ofrece
mayor ratio de transferencia de datos. Llamada también la autopista gráfica.
Aladin V: Conjunto de chips de sarrollada por Via Techonologies con el objeto de dar soporte a los últimos
chips de AMD junto con las nuevas placas para Socket 7.
AMD: Empresa cuyo principal producto son los microprocesadores. Se encuentra en estricta competencia
con los chips de Intel.
Antialiasing: Efecto 3D que consiste en eliminar las posibles pixelaciones de las lineas al cruzarse con otras.
ATX: Formato de placa más ancha que la Baby AT y con fuente de alimentación de 230W.
Baby AT: formato de placa base más estrecho que la ATX y con menos potencia en la funte de alimentación.
Banshee: Tarjeta gráfica avanzada desarrollada para juegos aunque es una solución completa 2D/3D.
Bump−Mapping: Efecto 3D consistente en el relleno de polígonos con texturas predeterminados por la
memoria de la tarjeta gráfica.
BUS: se denomina bus a los caminos (circuitos elétricos) de conexión entre los distintos componentes del
ordenador. Desde las ranuras PCI hasta el microprocesador, desde la memoria hastael procesador y viceversa
....etc.
Cache: Tipo de memoria de acceso ultrarápido que es utilizada para los accesos más comunes del
microprocesador ahorrando tiempo de búsqueda. Normalmenete entre un 85% y un 90% de los accesos a
memoria se realizan a la memoria caché en tareas multiproceso, lo que explica el ahorro de tiempo, ya que
esta memoria es más rápida aunque más cara que la memoria convencional.
CD−R/CD−RW: El CD−R es un CD en el que sólo se puede copiar una única vaz información, de ahí su
nombre (Record). El CD−RW es un CD que puede ser escrito muchas veces (más de mil según los
fabricantes) adquiriéndo su nombre (Record−Write) de esta posibilidad.
CD−ROM: Es el soporte de la información más extendido actualmente. Los CDs suelen tener 650 Mb de
capacidad aunque los hay de 680 Mb.
Celeron: Microprocesador de Intel qie se diferencia de su hermano mayor P−II en que sólo presenta 128Kb
de caché al contario que el primero que tiene 256 Kb.
CRT: Tipo de monitor basado en los tubos de rayos catódicos parecidos a las televisiones que se suelen tener
en casa.
Cyrix: tercera empresa en discordia por el mercado de los microprocesadores aunque sus chips son
generalmente de menor calidad.
29
Direct 3D: Conjunto de rutinas desarrolladas por Microsoft que permiten aprovechar las nuevas tecnologías
multimedia.
Dolby AC−3: Sistema de sonido utilizado en los lectores DVD que aporta gran calidad de audio y permite la
utilización de múltiples canales para generar sonido surround.
Dolby Digital: Sistema de sonido que se basa en la reproducción de éste individualmente en cada altavoz.
Esto se consigue mediantevun procesador que separa las señales.
Dolby Surround: Sistema de sonido que se basa en reproducir el sonido de los altavoces delanteros en los
traseros para generar el efecto de espacio.
Drivers: Conjunto de rutinas de enlace entre un periférico y el sistema gobernado por el el microprocesador.
DVD: Proviene de las siglas de Digital Video Device (dispositivo de vídeo digital) o como otros fabricantes
suelen indicar Digital Versatile Disc (Disco Versátil Digital.
DVD−RAM: Es la opción de grabación que sería similar a los sistemas CD−R, ya que permite almacenar en
soporte DVD nuestros datos personales, aunque su tamaño no es igual al proporcionado por los sistemas
DVD−ROM.
DVD−RE: Sistema regrabable de DVDs en donde podemos realizar múltiples grabaciones y borrados de
información tal y como actualmente lo hacemos con los sistemas CD−RW.
DVD−ROM: Este es el sistema de almacenamiento de información que podemos definir como un CD−ROM
de gran tamaño, con capacidades que varían entre los 4,7 Gbytes hasta los 17 Gbytes.
DVD−Video: Este ha sido el más promocionado por todo tipo de compañías, ya que permite contener en un
solo DVD (4,7 Gbytes) una película completa con soporte multilingüe, hasta ocho clases de subtítulos y un
máximo de nueve ángulos de visión.
EIDE: Interfaz de conexión entre elementos como el disco duro, los distintos tipo de CD−ROM ...etc que
presenta unas características de transmisión menores a las de otros tipos de interfaces como SCSI.
ISA: Ranuras de expansión que poco a poco están cayendo en desuso debido a la lentitud de transferencia de
datos.
Joystick: Periférico comunmente utilizado para los juegos.
Jumpers: Pequeños switches situados en las placas base y algunas tarjetas con el propósito de poder cambiar
las configuraciones de éstas tarjetas.
K6−II: Microprocesador de AMD de velocidades hasta 400 Mhz con las instrucciones 3DNow! que
aumentan las capacidades multimedia de la máquina.
KNI: Nuevas instrucciones de Intel para sus procesadores P−III que aceleran las tareas multimedia que
realice el procesador. Está es clara competencia con las 3DNow!.
LCD: Tipo de monitor basado en tecnologías de cristales líqudos. Una de sus mejores características es que
son planos.
LED: Indicador luminoso que aparece en la caja del ordenador para indicar el posible funcioanmiento del
procesador
Line In: Conector de entrada de una tarjeta de sonido.
Line Out: Conector de salida de una tarjeta de sonido.
Mendochino: Procesador de Intel que carece de memoria caché L2 (de segundo nivel) para abaratar costes.
Mic: Entrada del micrófono en una tarjeta de sonido.
Midi: Formato o especificación de sonido diseñado para comunicar instrumentos musicales con el ordenador.
MMX: Primigenias 57 instrucciones multimedia implementadas en los Pentium y en los P−II.
MP3: Formato de sonido que se caracteriza por l compresión que alcanza el sonido de un 10:1. Esto se
consigue eliminandolas frecuencias inaudibles por el oido humano así como las frecuancias superpuestas.
MPEG−2: Sistema de almacenamiento de la información en DVD que utiliza un método de compresión de
segunda generación para proporcionar una calidad óptima de vídeo y contener audio de alta calidad.
30
MPGII: Formato de video en el que se supera la calidad del MPEG pero todavía no llega a una calidad
extrema como lo hace MPEG−IV
NLX: Tipo de placa caracterizada por el rápido acceso que se tiene a los componenetes del ordenador,
aunque no está muy extendida.
OpenGL: Conjunto de rutinas de programación gráfica que ensombrecen totalmente a las Direct X
desarrollados por Microsoft. Estas rutinas han sido utilizadas en juegos como Quake, QuakeII u otros del
mismo estilo.
OPL3: Chip de primera generación que permitía sintetizar sonidos reales.
PCI: Tipo de ranura de expansión que está en auge actualmente junto con AGP debido a la migración que se
está producinedo dede ISA, próxima a desaparecer.
PGA: Nombre que se les da a los encapsulados de microprocedadores anteriores al P−II o P−II puesto que
estos se presentan en cartuchos tipo SEC.
Plug & Play: Característica soportada por Windows 9x que consiste en enchufar y listo. Esto puede ser así
porque el sistema operativo contiene de por sí numerosos drivers de distintos periféricos que no hace falta
introducir para que funcionen éstos. Au´n así esta utilidad ha sido muy criticada por su supuesta falta de
solvencia.
PS/2: tipo de conexión al ordenador que se caracteriza por dejar libre el puerto de serie pudiendo enchufar
otro perférico a éste..
RAMDAC: Frecuencia del procesador de la tarjeta gráfica en relación directa con el acceso a la memoria de
la misma.
RDSI: Tipo de conexión a Internet (red) que garantiza un gran ancho de banda aunque es muy cara. Suele ser
utilizado por las empresas.
S/PDIF: Salida compuesta de video que presentan las tarjetas de algunas tarjetas de videomás modernas.
SCSI: Tipo de especificación que se opone a IDE siendo más avanzada y más cara.
SGRAM: Tipo de memoria utilizada sobre todo en tarjetas gráficas.
Shareware: Se denomina así a los programas que se pueden probar durante un período determinado de
tiempo o con características reducidas antes de ser comprados.
SIMD: Tipo de instrucciones que incorporan el P−III en su nueva configuración.
Socket7: Ranura donde se coloca el microprocedasor tipo AMD K6 /K6 3D o Pentium MMX.
SondBlaster: Marca de tarjeta de sonido que actualmente se ha convertido en un etándar de sonido en el
mercado aunque le están saliendo competidores fuertes.
Stencil−Buffer: Efecto 3D.
SVGA: Modo de video que soporta altas resoluciones de pantalla.
TNT: Nombre de tarjeta gráfica en completa rivalidad con la Banshee y mejor que ésta.
Udma/Udma2: Los discos duros que soportan estas características alcanzan una velocidad de transferencia
punta de 33 Mb / 66 Mb por segundo aunque las trensferencia sostenidad se situán en torno a los 2 o 3 Mb
por segundo en unidades IDE o EIDE.
UltraWide: Carácterística parecida al Udma pero aplicado a la tecnología SCSI. En cambio, aquí se pueden
llegar hasta hasta los 80 Mb/s de punta o 6 Mb sostenidos.
USB: Puerto de conexión de última generación que permite enchufar los periféricos en caliente, es decir, no
hace falta reiniciar el ordenador para que se detecte la conexión o desconexión del nuevo hardware.
VRAM: Tipo de memoria sçincrona y rápidad empleada en tarjetas gráficas.
Wave Table: Método de síntesis por tabla de ondas que ayuda a las tarjetas de sonido a sintetizar distintos
instrumentos musicales.
Windows: Sistema operativo de la empresa Microsoft conocido en todo el mundo tanto por sus cirtudes
como por sus desventajas.
31
Xeon: Ultimo desarrollo de Intel en cuanto a microprocesadores se refiere estando éste orientado a
servidores.
XGA: Modo de video que soporta resoluciones medias. Ha sido muy utilizado en ordenadores poratátiles.
ZIP: Formato de compresión muy utilizado a trvñés de internet. También se le llama Zip a los discos de 100
Mb de capacidad que se insertan en unidades lectoras Zip que son una dura competencia hoy por hoy para las
disqueteras de 120 Mb.
Indice
1. Introducción
2. Elementos internos
2.1. Placa base
a) Descripción
b) Recomendaciones
2.2. Microprocesador
a) Descripción
b) Recomendaciones
2.3. Memoria
a) Descripción
b) Recomendaciones
2.4. Tarjeta gráfica.
a) Descripción
2.5. Tarjeta de sonido
a) Descripción
b) Recomendaciones
2.6. Módem
a) Descripción
b) Recomendaciones
2.7. Sistemas de almacenamiento
a) Descripción
b) Recomendaciones
c) RecomendacionesII
3. Componentes externos
3.1. Caja
a) Descripción
b) Recomendaciones
3.2. Monitor
a) Descripción
b) Recomendaciones
3.3. Altavoces
a) Descripción
b) Recomendaciones
3.4. Impresoras
a) Descripción
Pág.1
Pág.1
Pág.1
Pág.1
Pág.3
Pág.3
Pág.3
Pág.5
Pág.5
Pág.6
Pág.6
Pág.6
Pág.6
Pág.9
Pág.9
Pág.9
Pág.12
Pág.13
Pág.13
Pág.14
Pág.15
Pág.19
Pág.23
Pág.24
Pág.24
Pág.24
Pág.25
Pág.25
Pág.25
Pág.27
Pág.27
Pág.27
Pág.29
Pág.29
Pág.30
32
b) Recomendaciones
3.5. Ratón
a) Descripción
3.6. Teclado
a) Descripción
4. Conclusiones
5. Glosario de términos
6. Indice
7. Bibliografía
Pág.31
Pág.32
Pág.32
Pág.33
Pág.33
Pág.34
Pág.35
Pág.39
Pág.41
Bibliografía
Publicaciones de apoyo
Pc Actual Septiembre 1998.
Pc Actual Octubre 1998.
Pc Actual Enero 1999.
Pc Actual Febrero 1999.
Pc Actual Marzo 1999.
Pc Actual Abril 1999.
Pc Actual Mayo 1999.
Pc World Enero 1999.
Pc World Marzo 1999.
Jumping Enero 1999.
Direcciones Internet visitadas
http:/www.Microsoft.com
http:/www.Intel.com
http:/www.3Dfx.com
http:/www.Philips.com
http:/www.Disney.com
http:/www.Epson.com
http:/www.Microsoft.com
33
http:/www.chatplanet.com
Comprar un ordenador
11
39
34
Descargar