“Administración de Aula Virtual para el apoyo en la enseñanza de la

Anuncio
SEP
SEMS
DGETI
Dirección general de educación tecnológica industrial
Centro de estudios tecnológicos industrial y de servicios no. 166
“Carmen Serdán Alatriste”
C.C.T.
09DCT0049R
“Administración de Aula Virtual
para el apoyo en la enseñanza
de la competencia aplicar
mantenimiento preventivo
y correctivo a
equipo de cómputo”
TESINA
PARA OBTENER EL TÍTULO DE:
TÉCNICO EN INFORMÁTICA
CLAVE: BTCININ07
PRESENTAN:
López Ramírez José de Jesús
Ortiz Roldán Andrés
Pacheco Ramírez Arnold Octavio
Reyes Soto Fernando
Trejo Hernández Eliud Rodrigo
ASESORES:
Ing. Guillermo García García.
Lic. Víctor Mejía Lavanderos.
JULIO 2012
ii
84
iii
84
iv
84
v
84
vi
84
vii
DEDICATORIA.
A Dios por haberme permitido llegar hasta este punto y haberme dado salud para lograr mis objetivos, además de su infinita bondad y amor.
A mi madre Leticia Ramírez Betancourt
Por haberme apoyado en todo momento, por sus consejos, sus valores, por
la motivación constante que me ha permitido ser una persona de bien, pero
más que nada, por su amor.
A mi padre Cecilio Pacheco Muñoz
Por los ejemplos de perseverancia y constancia que lo caracterizan y que
me ha infundado siempre, por el valor mostrado para salir adelante y por
su amor.
A mis familiares.
A mi hermano Brandon Pacheco Ramírez, por ser el ejemplo de un hermano
menor y del cual aprendí aciertos y de momentos difíciles y a todos aquellos
que participaron directa o indirectamente en la elaboración de esta tesis.
¡Gracias a ustedes!
A mis maestros.
Al profesor Guillermo García García por su gran apoyo y motivación para
la culminación de nuestros estudios profesionales y para la elaboración
de esta tesis, de igual manera al profesor Víctor Mejía Lavanderos por su
apoyo ofrecido en este trabajo.
A mis amigos por el apoyo mutuo en nuestra formación demostrándome su
apoyo y cariño.
Arnold O. Pacheco Ramírez
viii
DEDICATORIA.
A Dios por permitirme llegar a este momento tan especial en mi vida. Por los triunfos y los momentos difíciles que me han enseñado a valorarme cada día más.
A mi Madre.
Por haberme educado y soportar mis errores. Gracias a sus consejos, por el amor que siempre me
ha brindado, por cultivar e inculcarme ese sabio don de la responsabilidad.
¡Gracias por darme la vida! ¡Te quiero mucho!
A mi Padre.
A quien le debo todo en la vida, agradezco el cariño, la comprensión, la paciencia y el apoyo que
me brindó para culminar mi carrera profesional.
A mis Hermanas.
Por qué siempre he contado con ellas para todo, gracias a la confianza que siempre nos hemos
tenido; por el apoyo y amistad ¡Gracias!.
A mis Familiares.
Gracias a todos mis familiares que directa e indirectamente me impulsaron para llegar hasta este
lugar, a todos mis familiares que me resulta muy difícil poder nombrarlos en tan poco espacio. Sin
embargo, ustedes saben quiénes son.
A mis maestros.
Gracias por su tiempo, por su apoyo así como por la sabiduría que me transmitieron en el desarrollo de mi formación profesional, en especial al profesor Victor Mejía Lavanderos por haber guiado
en el desarrollo de este trabajo y llegar a la culminación del mismo, al profesor Guillermo García
García por su tiempo compartido y por impulsar el desarrollo de nuestra formación profesional.
A mis amigos.
Que gracias al equipo que formamos logramos llegar hasta el final del camino y que hasta el
momento, seguimos siendo amigos, principalmente a mis grandes amigos Arnold, Jesús, Fernando
y Rodrigo.
Andrés Ortiz Roldan.
ix
DEDICATORIA.
Este proyecto es el resultado del esfuerzo conjunto de todos los que formamos el grupo de trabajo. A mis compañeros: Andrés Ortiz, Rodrigo Trejo,
Arnold Pacheco y Jesús López, quienes a lo largo de este tiempo han puesto
a prueba sus capacidades y conocimientos en el desarrollo de este proyecto. A mi Madre quien a lo largo de toda mi vida ha apoyado y motivado
mi formación académica, A mis familiares quienes creyeron en mi en todo
momento y no dudaron de mis habilidades. A mis profesores a quienes les
debo gran parte de mis conocimientos, gracias a su paciencia y enseñanza. Finalmente un eterno agradecimiento a este bachillerato el cual abrió y
abre sus puertas a jóvenes como nosotros, preparándonos para un futuro
competitivo y formándonos como personas de bien.
Fernando Reyes Soto.
x
DEDICATORIA.
Los resultados de este proyecto, están dedicados a todas aquellas personas
que, de alguna forma, son parte de su culminación. Nuestros sinceros agradecimientos están dirigidos hacia el profesor Víctor Mejía Lavanderos y Guillermo García García, quienes con su ayuda desinteresada, nos brindaron
información relevante, próxima, pero muy cercana a la realidad de nuestras
necesidades. A los alumnos del CETis No. 166, Bachillerato de Informática,
administración y turismo, los cuáles plasmaron nuestros resultados investigativos en diseños originales, atractivos y de gran realce para el éxito del
proyecto. A nuestras familias por siempre brindarnos su apoyo, tanto moral, como económico. Pero, principalmente nuestros agradecimientos están
dirigidos hacia la autoridad de nuestra institución, a la directora y amiga,
Lic. Columba G. Rivera Trejo sin el cual no hubiésemos podido salir adelante.
Gracias a Dios, a Brenda, a mis padres y hermanos.
Eliud Rodrigo Trejo Hdez.
xi
DEDICATORIA.
El presente trabajo de tesis primeramente lo dedico a ti Dios por bendecirme para llegar hasta donde he llegado, porque hiciste realidad este sueño
anhelado.
Al CETis No. 166 “Carmen Serdán Alatriste” por darme la oportunidad de
estudiar y ser un Técnico.
A mi directora del plantel Lic. Columba G. Rivera Trejo y al profesor Victor
Mejia Lavanderos por su esfuerzo y dedicación, quien con sus conocimientos, su experiencia, su paciencia y su motivación ha logrado en mí que pueda terminar mis estudios con éxito.
También me gustaría agradecer a mis profesores durante todo mi bachillerato porque todos han aportado con un granito de arena a mi formación, y
en especial a mi profesor Enrique Mercado Lozano.
De igual manera agradecer a mi profesor de Investigación y de Tesis, Guillermo García García por su visión crítica de muchos aspectos cotidianos de
la vida, por su rectitud en su profesión como docente, por sus consejos, que
ayudan a formarte como persona e investigador.
Son muchas las personas que han formado parte de mi vida profesional
a las que me encantaría agradecerles su amistad, consejos, apoyo, ánimo
y compañía en los momentos más difíciles de mi vida. Algunas están aquí
conmigo y otras en mis recuerdos y en mi corazón, sin importar en donde
estén quiero darles las gracias por formar parte de mí, por todo lo que me
han brindado y por todas sus bendiciones. ¡Muchas gracias y que Dios los
bendiga!.
José de Jesús López Ramírez
xii
Delimitación del tema
El presente trabajo esta realizado con la finalidad de proporcionar un
apoyo académico para el desarrollo de la competencia aplicar mantenimiento preventivo y correctivo a equipo de cómputo perteneciente al
modulo IV de la carrera de Informática perteneciente al plan de estudios
que hemos cursado en el Centro de Estudios Tecnológicos industrial y de
servicios No. 166.
Hipótesis
Algunas veces durante la vida de su PC algo puede salir mal. A menos que
desee pagarle a alguien una cantidad considerable de dinero para arreglarla, se necesitará aprender a cómo detectar y corregir su PC. No hay
nada más molesto para un usuario de una PC que el tener un problema
con su computadora. Esta molestia puede convertirse rápidamente en
una frustración cuando el problema parece imposible de resolver o inclusive de entender. El material dispuesto en este trabajo ayudara a resolver
y prevenir problemas tipos en las computadoras.
Justificación
Cuando se intenta detectar o corregir un problema en una computadora
es esencial usar un acercamiento sistemático. El presente trabajo ayuda
a llevar a cabo un proceso que evita perder tiempo valioso y recursos,
xiii
para poder definir los síntomas específicos que determinan el daño en el
equipo de cómputo.
Objetivo
Proporcionar un material que auxilie en el desarrollo de la competencia
aplicar mantenimiento preventivo y correctivo a equipo de cómputo.
Metodología
Se entiende como metodología al procedimiento seguido de una actividad, donde se ofrece valiosas aportaciones en la comprensión para el
desarrollo de un proyecto que permitirá al estudiante desarrollar una
competencia que ayude a abordar con mejores herramientas y habilidades el alcance exitoso de su proyecto.
ELEMENTOS PARTICIPANTES (RECURSOS HUMANOS)
La realización de este proyecto se hizo gracias a la intervención de las
siguientes personas:
Profesores del CETis No. 166 nos asesoraron en las actividades diarias de
mantenimiento preventivo a las PC´s.
Asesor académico: Lic. Victor Mejia Lavanderos, quien estructuró y asesoró el desarrollo del presente trabajo.
xiv
INSTRUMENTOS Y EQUIPOS DE TRABAJO
Los elementos utilizados para la elaboración del proyecto son los siguientes.
INSTRUMENTOS.
Entrevistas: Sirvió para recopilar información acerca de las actividades de
prevención y corrección de errores en los equipos de cómputo.
Asesorías: Se llevó a cabo para la creación y estructuración del proyecto.
Internet: Se utilizó para recabar información de los componentes y arquitectura de PC`s Libros y manuales.
EQUIPO.
La institución cuenta con el equipo necesario para realizar las prácticas,
de igual forma se nos facilitó el equipo con el fin de redacción, modificaciones e investigaciones necesarias.
HARDWARE
• Computadora ACER.
• Disco Duro de 30 GB.
• CD-ROM.
• TECLADO.
• MOUSE.
• MONITOR.
SOFTWARE
• SISTEMA OPERATIVO XP PROFESIONAL.
• OFFICE XP PROFESIONAL
• WINZIP.
• ANTIVIRUS.
HERRAMIENTAS DE TRABAJO.
• Desarmadores planos y de estrella (o cruz) Estos desarmadores son
xv
empleados para retirar los tornillos que mantienen fija la tapa exterior
que cubre y protege al CPU (gabinete), dentro del CPU existen algunos
componentes que requiere ser extraídos con la ayuda de un desarmador.
• PULSERA ANTIESTÁTICA Como es bien sabido por todos aquellos que
tienen conocimiento sobre mantenimiento a equipos de cómputo, saben que es necesario hacer la descarga de energía estática del cuerpo
antes de tocar alguna pieza interna de CPU, ya sea: un chip, el microprocesador o una tarjeta, puesto que son muy delicadas y sensibles
a cualquier daño físico. La pulsera funciona de la siguiente manera:
Aparentemente es una pulsera común y corriente, que esta hecha de
un material que no conduce electricidad y tiene un pequeño metal que
hace contacto con la piel de la mano este ase vez tiene conectado un
cable en forma de espiral de aproximadamente 80 cm que se conecta
al enchufe de tierra física o al chasis de la PC.
• PINZAS DE PUNTA FINA Se emplean normalmente para retirar los jumper de los discos duros o unidades de CD-ROM cuando hubiera la necesidad de configurarlos para hacer que la computadora pueda reconocerlos.
• ALCOHOL ISOPROPILICO Dentro de la computación es el líquido más
importante para realizar limpiezas de tarjetas de los equipos (computadoras, impresoras, monitores, etc.), es un compuesto que tiene un
secado demasiado rápido por lo cual ayuda a realizar un trabajo muy
eficiente.
xvi
INTRODUCCIÓN
La computadora hoy en día se ha vuelto una herramienta indispensable
en muchas áreas, lo mismo pude servir para realizar grandes cálculos, al
igual que los estudiantes o amas de casa y como cualquier herramienta
necesita cuidados especiales
En el capitulo 1 se abordan los temas básicos en cuanto al hardware y
software atendiendo al la pregunta ¿Qué es el mantenimiento para PC?
en respuesta se tiene que es el cuidado que se le da a las computadoras
para prevenir posibles fallas, se debe tener en cuenta la ubicación física
del equipo ya sea en la oficina o en el hogar, así como los cuidados especiales cuando no se está utilizando. Hay dos tipos de mantenimiento el
preventivo y el correctivo, en el capitulo 2 se habla del entorno de trabajo
en el cual es posible dar un mantenimiento y por último en el capitulo 3
se abordan los temas de mantenimiento preventivo al equipo de computo.
xvii
Contenido
Delimitación del tema______________________________________________________________xiii
Hipótesis___________________________________________________________________________xiii
Justificación________________________________________________________________________xiii
Objetivo____________________________________________________________________________xiv
Metodología_______________________________________________________________________xiv
INTRODUCCIÓN___________________________________________________________________ xvii
Capitulo 1. HARDWARE Y SOFTWARE________________________________________________ 1
1.1 INTRODUCCIÓN.______________________________________________________________ 2
1.2 Historia________________________________________________________________________ 2
1.3 Tipos de hardware.____________________________________________________________ 4
1.4 Hardware gráfico._____________________________________________________________ 6
1.5 Software ______________________________________________________________________ 7
1.6 Clasificación del software_____________________________________________________ 9
1.7 Modelos de proceso o ciclo de vida__________________________________________ 10
1.8 Modelo cascada______________________________________________________________ 11
1.9 Modelos evolutivos___________________________________________________________ 14
1.10 Modelo iterativo incremental_______________________________________________ 15
1.11 Modelo espiral______________________________________________________________ 20
1.12 Mantenimiento_____________________________________________________________ 24
xviii
1.13 Carácter evolutivo del software_____________________________________________ 25
1.14 Mantenimiento Correctivo:__________________________________________________ 29
CAPITULO 2. ENTORNO DE TRABAJO_______________________________________________ 31
2.1 INTRODUCCION______________________________________________________________ 32
2.2 PARTES Y FUNCIONES DE UN MULTÍMETRO DIGITAL.________________________ 33
2.3 UTILIZANDO EL MULTÍMETRO DIGITAL.______________________________________ 34
2.4 CAUTÍN_______________________________________________________________________ 36
2.5 Pulsera antiestática__________________________________________________________ 38
CAPITULO 3. MANTENIMIENTO PREVENTIVO AL EQUIPO DE CÓMPUTO.���������� 39
3.1 INTRODUCCIÓN______________________________________________________________ 40
3.1.1 Mantenimiento al software._____________________________________________ 41
3.2 Tipos de mantenimiento_____________________________________________________ 42
3.3 Sistema operativo.___________________________________________________________ 42
3.4 Copia de seguridad.__________________________________________________________ 43
3.5 Propuestas de copias de seguridad de datos ________________________________ 45
3.6 Copia de seguridad de datos en uso._________________________________________ 45
3.7 Software de copias de seguridad ____________________________________________ 46
3.8 Consejos_____________________________________________________________________ 47
3.9 Desfragmentación____________________________________________________________ 47
xix
3.9.1 Desfragmentacion de unidades de almacenamiento.____________________ 48
3.9.2 Corregir errores lógicos en unidades de almacenamiento.______________ 49
3.9.3 Depurar archivos________________________________________________________ 50
3.9.4 Utilerías_________________________________________________________________ 51
3.9.5 Antivirus_________________________________________________________________ 51
3.9.6 Emplear las utilerías del antivirus________________________________________ 52
3.9.7 Emplear las utilerías de software________________________________________ 52
3.9.8 Fragmentación de archivos______________________________________________ 53
3.9.9 Compresión de datos ___________________________________________________ 53
3.9.10 Firewall_________________________________________________________________ 54
GLOSARIO DE TERMINOS INFORMATICOS__________________________________________ 55
Conclusiones_______________________________________________________________________ 61
Recomendaciones_________________________________________________________________ 62
Bibliografía_________________________________________________________________________ 64
xx
Capitulo 1. HARDWARE Y SOFTWARE
1
1.1 INTRODUCCIÓN.
Hardware corresponde a todas las partes tangibles de un sistema informático, sus componentes son: eléctricos, electrónicos, electromecánicos
y mecánicos. Son cables, gabinetes o cajas, periféricos de todo tipo y
cualquier otro elemento físico involucrado; contrariamente, el soporte lógico es intangible y es llamado software. El término es propio del idioma
inglés (literalmente traducido: partes duras), su traducción al español no
tiene un significado acorde, por tal motivo se la ha adoptado tal cual es y
suena; la Real Academia Española lo define como «Conjunto de los componentes que integran la parte material de una computadora». El término, aunque es lo más común, no solamente se aplica a una computadora
tal como se la conoce, también, por ejemplo, un robot, un teléfono móvil,
una cámara fotográfica o un reproductor multimedia poseen hardware y
software. La historia del hardware del computador se puede clasificar en
cuatro generaciones, cada una caracterizada por un cambio tecnológico
de importancia. Este hardware se puede clasificar en: básico, el estrictamente necesario para el funcionamiento normal del equipo; y complementario, el que realiza funciones específicas.Un sistema informático se
compone de una unidad central de procesamiento (UCP/CPU), encargada
de procesar los datos, uno o varios periféricos de entrada, los que permiten el ingreso de la información y uno o varios periféricos de salida, los
que posibilitan dar salida (normalmente en forma visual o auditiva) a los
datos procesados.
1.2 Historia
La clasificación evolutiva del hardware del computador electrónico está
2
dividida en generaciones, donde cada una supone un cambio tecnológico
muy notable. El origen de las primeras es sencillo de establecer, ya que
en ellas el hardware fue sufriendo cambios radicales. Los componentes
esenciales que constituyen la electrónica del computador fueron totalmente reemplazados en las primeras tres generaciones, originando cambios que resultaron trascendentales. En las últimas décadas es más difícil
distinguir las nuevas generaciones, ya que los cambios han sido graduales y existe cierta continuidad en las tecnologías usadas. En principio, se
pueden distinguir:
1ª Generación (1945-1956): electrónica implementada con tubos de vacío.
Fueron las primeras máquinas que desplazaron los componentes electromecánicos (relés).
2ª Generación (1957-1963): electrónica desarrollada con transistores. La
lógica discreta era muy parecida a la anterior, pero la implementación
resultó mucho más pequeña, reduciendo, entre otros factores, el tamaño
de un computador en notable escala.
3ª Generación (1964-hoy): electrónica basada en circuitos integrados. Esta
tecnología permitió integrar cientos de transistores y otros componentes
electrónicos en un único circuito integrado impreso en una pastilla de
silicio. Las computadoras redujeron así considerablemente su costo, consumo y tamaño, incrementándose su capacidad, velocidad y fiabilidad,
hasta producir máquinas como las que existen en la actualidad.
4ª Generación (futuro): probablemente se originará cuando los circuitos
de silicio, integrados a alta escala, sean reemplazados por un nuevo tipo
de material o tecnología.
La aparición del microprocesador marca un hito de relevancia, y para muchos autores constituye el inicio de la cuarta generación. A diferencia de
3
los cambios tecnológicos anteriores, su invención no supuso la desaparición radical de los computadores que no lo utilizaban. Así, aunque el microprocesador 4004 fue lanzado al mercado en 1971, todavía a comienzo
de los 80's había computadores, como el PDP-11/44, con lógica carente
de microprocesador que continuaban exitosamente en el mercado; es decir, en este caso el desplazamiento ha sido muy gradual.
Otro hito tecnológico usado con frecuencia para definir el inicio de la
cuarta generación es la aparición de los circuitos integrados VLSI (Very
Large Scale Integration), a principios de los ochenta. Al igual que el microprocesador, no supuso el cambio inmediato y la rápida desaparición de
los computadores basados en circuitos integrados en más bajas escalas
de integración. Muchos equipos implementados con tecnologías VLSI y
MSI (Medium Scale Integration) aún coexistían exitosamente hasta bien
entrados los 90.
1.3 Tipos de hardware.
Microcontrolador Motorola 68HC11 y chips de soporte que podrían constituir el hardware de un equipo electrónico industrial.
Una de las formas de clasificar el hardware es en dos categorías: por un
lado, el "básico", que abarca el conjunto de componentes indispensables
necesarios para otorgar la funcionalidad mínima a una computadora; y
por otro lado, el hardware "complementario", que, como su nombre indica, es el utilizado para realizar funciones específicas (más allá de las
básicas), no estrictamente necesarias para el funcionamiento de la computadora.
Así es que: un medio de entrada de datos, la unidad central de procesa-
4
miento (C.P.U.), la memoria RAM, un medio de salida de datos y un medio
de almacenamiento constituyen el "hardware básico".
Los medios de entrada y salida de datos estrictamente indispensables
dependen de la aplicación: desde el punto de vista de un usuario común,
se debería disponer, al menos, de un teclado y un monitor para entrada
y salida de información, respectivamente; pero ello no implica que no
pueda haber una computadora (por ejemplo controlando un proceso) en
la que no sea necesario teclado ni monitor; bien puede ingresar información y sacar sus datos procesados, por ejemplo, a través de una placa de
adquisición/salida de datos.
Las computadoras son aparatos electrónicos capaces de interpretar y ejecutar instrucciones programadas y almacenadas en su memoria; consisten básicamente en operaciones aritmético-lógicas y de entrada/salida.
Se reciben las entradas (datos), se las procesa y almacena (procesamiento), y finalmente se producen las salidas (resultados del procesamiento).
Por ende todo sistema informático tiene, al menos, componentes y dispositivos hardware dedicados a alguna de las funciones antedichas, a saber:
1. Procesamiento: Unidad Central de Proceso o CPU
2. Almacenamiento: Memorias
3. Entrada: Periféricos de entrada (E)
4. Salida: Periféricos de salida (S)
5. Entrada/Salida: Periféricos mixtos (E/S)
Desde un punto de vista básico y general, un dispositivo de entrada es el
que provee el medio para permitir el ingreso de información, datos y programas (lectura); un dispositivo de salida brinda el medio para registrar la
información y datos de salida (escritura); la memoria otorga la capacidad
de almacenamiento, temporal o permanente (almacenamiento); y la CPU
5
provee la capacidad de cálculo y procesamiento de la información ingresada (transformación).
Un periférico mixto es aquél que puede cumplir funciones tanto de entrada como de salida; el ejemplo más típico es el disco rígido (ya que en él se
lee y se graba información y datos).
1.4 Hardware gráfico.
El hardware gráfico lo constituyen básicamente las tarjetas gráficas. Dichos componentes disponen de su propia memoria y unidad de procesamiento, esta última llamada unidad de procesamiento gráfico (o GPU,
siglas en inglés de Graphics Processing Unit). El objetivo básico de la GPU
es realizar los cálculos asociados a operaciones gráficas, fundamentalmente en coma flotante, liberando así al procesador principal (CPU) de
esa costosa tarea (en tiempo) para que éste pueda efectuar otras funciones en forma más eficiente. Antes de esas tarjetas de vídeo con aceleradores por hardware, era el procesador principal el encargado de construir la imagen mientras la sección de vídeo (sea tarjeta o de la placa
base) era simplemente un traductor de las señales binarias a las señales
requeridas por el monitor; y buena parte de la memoria principal (RAM)
de la computadora también era utilizada para estos fines.
Dentro de ésta categoría no se deben omitir los sistemas gráficos integrados (IGP), presentes mayoritariamente en equipos portátiles o en equipos prefabricados (OEM), los cuales generalmente, a diferencia de las
tarjetas gráficas, no disponen de una memoria dedicada, utilizando para
su función la memoria principal del sistema. La tendencia en los últimos
años es integrar los sistemas gráficos dentro del propio procesador cen-
6
tral. Los procesadores gráficos integrados (IGP) generalmente son de un
rendimiento y consumo notablemente más bajo que las GPU de las tarjetas gráficas dedicadas, no obstante, son más que suficiente para cubrir
las necesidades de la mayoría de los usuarios de un PC.
Actualmente se están empezando a utilizar las tarjetas gráficas con propósitos no exclusivamente gráficos, ya que en potencia de cálculo la GPU
es superior, más rápida y eficiente que el procesador para operaciones
en coma flotante, por ello se está tratando de aprovecharla para propósitos generales, al concepto, relativamente reciente, se le denomina GPGPU (General-Purpose Computing on Graphics Processing Units).
La Ley de Moore establece que cada 18 a 24 meses la cantidad de transistores que puede contener un circuito integrado se logra duplicar; en
el caso de los GPU esta tendencia es bastante más notable, duplicando, o
aún más, lo indicado en la ley de Moore.
Desde la década de 1990, la evolución en el procesamiento gráfico ha
tenido un crecimiento vertiginoso; las actuales animaciones por computadoras y videojuegos eran impensables veinte años atrás.
1.5 Software
Se conoce como software al equipamiento lógico soporte lógico de un
sistema informático, comprende el conjunto de los componentes lógicos
necesarios que hacen posible la realización de tareas específicas, en contraposición a los componentes físicos, que son llamados hardware.
Los componentes lógicos incluyen, entre muchos otros, las aplicaciones
informáticas; tales como el procesador de texto, que permite al usuario
realizar todas las tareas concernientes a la edición de textos; el software
7
de sistema, tal como el sistema operativo, que, básicamente, permite al
resto de los programas funcionar adecuadamente, facilitando también la
interacción entre los componentes físicos y el resto de las aplicaciones, y
proporcionando una interfaz con el usuario
Existen varias definiciones similares aceptadas para software, pero probablemente la más formal sea la siguiente:
Es el conjunto de los programas de cómputo, procedimientos, reglas, documentación y datos asociados que forman parte de las operaciones de
un sistema de computación.
Considerando esta definición, el concepto de software va más allá de los
programas de computación en sus distintos estados: código fuente, binario o ejecutable; también su documentación, los datos a procesar e incluso la información de usuario forman parte del software: es decir, abarca
todo lo intangible, todo lo «no físico» relacionado.
El término «software» fue usado por primera vez en este sentido por John
W. Tukey en 1957. En la ingeniería de software y las ciencias de la computación, el software es toda la información procesada por los sistemas
informáticos: programas y datos.
El concepto de leer diferentes secuencias de instrucciones (programa)
desde la memoria de un dispositivo para controlar los cálculos fue introducido por Charles Babbage como parte de su máquina diferencial.
La teoría que forma la base de la mayor parte del software moderno fue
propuesta por Alan Turing en su ensayo de 1936, «Los números computables», con una aplicación al problema de decisión.
8
1.6 Clasificación del software
Si bien esta distinción es, en cierto modo, arbitraria, y a veces confusa, a
los fines prácticos se puede clasificar al software en tres grandes tipos:
•Software de sistema: Su objetivo es desvincular adecuadamente al usuario y al programador de los detalles del sistema informático en particular
que se use, aislándolo especialmente del procesamiento referido a las
características internas de: memoria, discos, puertos y dispositivos de
comunicaciones, impresoras, pantallas, teclados, etc. El software de sistema le procura al usuario y programador adecuadas interfaces de alto
nivel, controladores, herramientas y utilidades de apoyo que permiten el
mantenimiento del sistema global. Incluye entre otros:
o Sistemas operativos
o Controladores de dispositivos
o Herramientas de diagnóstico
o Herramientas de Corrección y Optimización
oServidores
oUtilidades
•Software de programación: Es el conjunto de herramientas que permiten
al programador desarrollar programas informáticos, usando diferentes
alternativas y lenguajes de programación, de una manera práctica. Incluyen básicamente:
o Editores de texto
oCompiladores
oIntérpretes
oEnlazadores
oDepuradores
o Entornos de Desarrollo Integrados (IDE): Agrupan las anteriores herra-
9
mientas, usualmente en un entorno visual, de forma tal que el programador no necesite introducir múltiples comandos para compilar, interpretar, depurar, etc. Habitualmente cuentan con una avanzada interfaz
gráfica de usuario (GUI).
•Software de aplicación: Es aquel que permite a los usuarios llevar a cabo
una o varias tareas específicas, en cualquier campo de actividad susceptible de ser automatizado o asistido, con especial énfasis en los negocios.
Incluye entre muchos otros:
o Aplicaciones para Control de sistemas y automatizaciónindustrial
o Aplicaciones ofimáticas
o Software educativo
o Software empresarial
o Bases de datos
o Telecomunicaciones (por ejemplo Internet y toda su estructura lógica)
oVideojuegos
o Software médico
o Software de cálculo Numérico y simbólico.
o Software de diseño asistido (CAD)
o Software de control numérico (CAM)
1.7 Modelos de proceso o ciclo de vida
Para cada una de las fases o etapas listadas en el ítem anterior, existen
sub-etapas (o tareas). El modelo de proceso o modelo de ciclo de vida
utilizado para el desarrollo, define el orden de las tareas o actividades
involucradas, también define la coordinación entre ellas, y su enlace y
realimentación. Entre los más conocidos se puede mencionar: modelo en
10
cascada o secuencial, modelo espiral, modelo iterativo incremental. De
los antedichos hay a su vez algunas variantes o alternativas, más o menos
atractivas según sea la aplicación requerida y sus requisitos.
1.8 Modelo cascada
Este, aunque es más comúnmente conocido como modelo en cascada es
también llamado «modelo clásico», «modelo tradicional» o «modelo lineal
secuencial».
El modelo en cascada puro difícilmente se utiliza tal cual, pues esto implicaría un previo y absoluto conocimiento de los requisitos, la no volatilidad de los mismos (o rigidez) y etapas subsiguientes libres de errores;
ello sólo podría ser aplicable a escasos y pequeños sistemas a desarrollar.
En estas circunstancias, el paso de una etapa a otra de las mencionadas
sería sin retorno, por ejemplo pasar del diseño a la codificación implicaría un diseño exacto y sin errores ni probable modificación o evolución:
«codifique lo diseñado sin errores, no habrá en absoluto variantes futuras». Esto es utópico; ya que intrínsecamente el software es de carácter
evolutivo , cambiante y difícilmente libre de errores, tanto durante su
desarrollo como durante su vida operativa.
Modelo cascada puro o secuencial
para el ciclo de vida del software.
11
Algún cambio durante la ejecución de una cualquiera de las etapas en
este modelo secuencial implicaría reiniciar desde el principio todo el ciclo
completo, lo cual redundaría en altos costos de tiempo y desarrollo
Sin embargo, el modelo cascada en algunas de sus variantes es uno de
los actualmente más utilizados , por su eficacia y simplicidad, más que
nada en software de pequeño y algunos de mediano porte; pero nunca (o
muy rara vez) se lo usa en su "forma pura", como se dijo anteriormente.
En lugar de ello, siempre se produce alguna realimentación entre etapas,
que no es completamente predecible ni rígida; esto da oportunidad al
desarrollo de productos software en los cuales hay ciertas incertezas,
cambios o evoluciones durante el ciclo de vida. Así por ejemplo, una vez
capturados y especificados los requisitos (primera etapa) se puede pasar
al diseño del sistema, pero durante esta última fase lo más probable es
que se deban realizar ajustes en los requisitos (aunque sean mínimos),
ya sea por fallas detectadas, ambigüedades o bien por que los propios
requisitos han cambiado o evolucionado; con lo cual se debe retornar a la
primera o previa etapa, hacer los reajuste pertinentes y luego continuar
nuevamente con el diseño; esto último se conoce como realimentación.
Lo normal en el modelo cascada será entonces la aplicación del mismo
con sus etapas realimentadas de alguna forma, permitiendo retroceder
de una a la anterior (e incluso poder saltar a varias anteriores) si es requerido.
De esta manera se obtiene el «modelo cascada realimentado», que puede
ser esquematizado como lo ilustra la figura
12
Modelo cascada realimentado para el ciclo de vida.
Lo dicho es, a grandes rasgos, la forma y utilización de este modelo, uno
de los más usados y populares.6 El modelo cascada realimentado resulta muy atractivo, hasta ideal, si el proyecto presenta alta rigidez (pocos
cambios, previsto no evolutivo), los requisitos son muy claros y están correctamente especificados.
Hay más variantes similares al modelo: refino de etapas (más etapas, menores y más específicas) o incluso mostrar menos etapas de las indicadas, aunque en tal caso la faltante estará dentro de alguna otra. El orden
de esas fases indicadas en el ítem previo es el lógico y adecuado, pero
adviértase, como se dijo, que normalmente habrá realimentación hacia
atrás.
El modelo lineal o en cascada es el paradigma más antiguo y extensamente utilizado, sin embargo las críticas a él (ver desventajas) han puesto en
duda su eficacia. Pese a todo, tiene un lugar muy importante en la Ingeniería de software y continúa siendo el más utilizado; y siempre es mejor
que un enfoque al azar.
Desventajas del modelo cascada:
• Los cambios introducidos durante el desarrollo pueden confundir al
13
equipo profesional en las etapas tempranas del proyecto. Si los cambios
se producen en etapa madura (codificación o prueba) pueden ser catastróficos para un proyecto grande.
• No es frecuente que el cliente o usuario final explicite clara y completamente los requisitos (etapa de inicio); y el modelo lineal lo requiere. La
incertidumbre natural en los comienzos es luego difícil de acomodar.
• El cliente debe tener paciencia ya que el software no estará disponible
hasta muy avanzado el proyecto. Un error detectado por el cliente (en
fase de operación) puede ser desastroso, implicando reinicio del proyecto, con altos costos.
1.9 Modelos evolutivos
El software evoluciona con el tiempo.119 Los requisitos del usuario y del
producto suelen cambiar conforme se desarrolla el mismo. Las fechas de
mercado y la competencia hacen que no sea posible esperar a poner en el
mercado un producto absolutamente completo, por lo que se aconsejable
introducir una versión funcional limitada de alguna forma para aliviar las
presiones competitivas.
En esas u otras situaciones similares los desarrolladores necesitan modelos de progreso que estén diseñados para acomodarse a una evolución
temporal o progresiva, donde los requisitos centrales son conocidos de
antemano, aunque no estén bien definidos a nivel detalle.
En el modelo cascada y cascada realimentado no se tiene demasiado en
cuenta la naturaleza evolutiva del software , se plantea como estático,
con requisitos bien conocidos y definidos desde el inicio.
Los evolutivos son modelos iterativos, permiten desarrollar versiones
14
cada vez más completas y complejas, hasta llegar al objetivo final deseado; incluso evolucionar más allá, durante la fase de operación.
Los modelos «iterativo incremental» y «espiral» (entre otros) son dos de
los más conocidos y utilizados del tipo evolutivo.
1.10 Modelo iterativo incremental
En términos generales, se puede distinguir, los pasos generales que sigue
el proceso de desarrollo de un producto software. En el modelo de ciclo
de vida seleccionado, se identifican claramente dichos pasos. La descripción del sistema es esencial para especificar y confeccionar los distintos
incrementos hasta llegar al producto global y final. Las actividades concurrentes (especificación, desarrollo y validación) sintetizan el desarrollo
pormenorizado de los incrementos, que se hará posteriormente.
El funcionamiento de un ciclo iterativo incremental, el cual permite la
entrega de versiones parciales a medida que se va construyendo el producto final. Es decir, a medida que cada incremento definido llega a su
etapa de operación y mantenimiento. Cada versión emitida incorpora a
los anteriores incrementos las funcionalidades y requisitos que fueron
analizados como necesarios.
El incremental es un modelo de tipo evolutivo que está basado en varios
ciclos Cascada Realimentados aplicados repetidamente, con una filosofía
iterativa.10 se muestra un refino del diagrama previo, bajo un esquema
temporal, para obtener finalmente el esquema del modelo de ciclo de
vida Iterativo Incremental, con sus actividades genéricas asociadas. Aquí
se observa claramente cada ciclo cascada que es aplicado para la obtención de un incremento; estos últimos se van integrando para obtener el
15
producto final completo. Cada incremento es un ciclo Cascada Realimentado.
Se observa que existen actividades de desarrollo (para cada incremento)
que son realizadas en paralelo o concurrentemente, así por ejemplo, en
la figura, mientras se realiza el diseño detalle del primer incremento ya se
está realizando en análisis del segundo. Un incremento no necesariamente se iniciará durante la fase de diseño del anterior, puede ser posterior
(incluso antes), en cualquier tiempo de la etapa previa. Cada incremento concluye con la actividad de «operación y mantenimiento» (indicada
como «Operación» en la figura), que es donde se produce la entrega del
producto parcial al cliente. El momento de inicio de cada incremento es
dependiente de varios factores: tipo de sistema; independencia o dependencia entre incrementos (dos de ellos totalmente independientes pueden ser fácilmente iniciados al mismo tiempo si se dispone de personal
suficiente); capacidad y cantidad de profesionales involucrados en el desarrollo; etc.
Bajo este modelo se entrega software «por partes funcionales más pequeñas», pero reutilizables, llamadas incrementos. En general cada incremento se construye sobre aquel que ya fue entregado.
Se aplican secuencias Cascada en forma escalonada, mientras progresa
el tiempo calendario. Cada secuencia lineal o Cascada produce un incremento y a menudo el primer incremento es un sistema básico, con muchas funciones suplementarias (conocidas o no) sin entregar.
El cliente utiliza inicialmente ese sistema básico, intertanto, el resultado
de su uso y evaluación puede aportar al plan para el desarrollo del/los
siguientes incrementos (o versiones). Además también aportan a ese plan
otros factores, como lo es la priorización (mayor o menor urgencia en la
16
necesidad de cada incremento en particular) y la dependencia entre incrementos (o independencia).
Luego de cada integración se entrega un producto con mayor funcionalidad que el previo. El proceso se repite hasta alcanzar el software final
completo.
Siendo iterativo, con el modelo incremental se entrega un producto parcial pero completamente operacional en cada incremento, y no una parte
que sea usada para reajustar los requerimientos (como si ocurre en el
modelo de construcción de prototipos).
El enfoque incremental resulta muy útil cuando se dispone de baja dotación de personal para el desarrollo; también si no hay disponible fecha límite del proyecto por lo que se entregan versiones incompletas pero que
proporcionan al usuario funcionalidad básica (y cada vez mayor). También es un modelo útil a los fines de versiones de evaluación.
Nota: Puede ser considerado y útil, en cualquier momento o incremento incorporar temporalmente el paradigma MCP como complemento, teniendo así una mixtura de modelos que mejoran el esquema y desarrollo
general.
Ejemplo:
Un procesador de texto que sea desarrollado bajo el paradigma Incremental podría aportar, en principio, funciones básicas de edición de archivos y producción de documentos (algo como un editor simple). En un
segundo incremento se le podría agregar edición más sofisticada, y de
generación y mezcla de documentos. En un tercer incremento podría considerarse el agregado de funciones de corrección ortográfica, esquemas
de paginado y plantillas; en un cuarto capacidades de dibujo propias y
ecuaciones matemáticas. Así sucesivamente hasta llegar al procesador fi-
17
nal requerido. Así, el producto va creciendo, acercándose a su meta final,
pero desde la entrega del primer incremento ya es útil y funcional para el
cliente, el cual observa una respuesta rápida en cuanto a entrega temprana; sin notar que la fecha límite del proyecto puede no estar acotada ni
tan definida, lo que da margen de operación y alivia presiones al equipo
de desarrollo.
Como se dijo, el Iterativo Incremental es un modelo del tipo evolutivo, es
decir donde se permiten y esperan probables cambios en los requisitos
en tiempo de desarrollo; se admite cierto margen para que el software
pueda evolucionar9 . Aplicable cuando los requisitos son medianamente
bien conocidos pero no son completamente estáticos y definidos, cuestión es que si es indispensable para poder utilizar un modelo Cascada.
El modelo es aconsejable para el desarrollo de software en el cual se observe, en su etapa inicial de análisis, que posee áreas bastante bien definidas a cubrir, con suficiente independencia como para ser desarrolladas
en etapas sucesivas. Tales áreas a cubrir suelen tener distintos grados de
apremio por lo cual las mismas se deben priorizar en un análisis previo,
es decir, definir cuál será la primera, la segunda, y así sucesivamente;
esto se conoce como «definición de los incrementos» con base en la priorización. Pueden no existir prioridades funcionales por parte del cliente,
pero el desarrollador debe fijarlas de todos modos y con algún criterio,
ya que basándose en ellas se desarrollarán y entregarán los distintos incrementos.
El hecho de que existan incrementos funcionales del software lleva inmediatamente a pensar en un esquema de desarrollo modular, por tanto
este modelo facilita tal paradigma de diseño.
En resumen, un modelo incremental lleva a pensar en un desarrollo mo-
18
dular, con entregas parciales del producto software denominados «incrementos» del sistema, que son escogidos según prioridades predefinidas
de algún modo. El modelo permite una implementación con refinamientos
sucesivos (ampliación o mejora). Con cada incremento se agrega nueva
funcionalidad o se cubren nuevos requisitos o bien se mejora la versión
previamente implementada del producto software.
Este modelo brinda cierta flexibilidad para que durante el desarrollo
se incluyan cambios en los requisitos por parte del usuario, un cambio
de requisitos propuesto y aprobado puede analizarse e implementarse
como un nuevo incremento o, eventualmente, podrá constituir una mejora/adecuación de uno ya planeado. Aunque si se produce un cambio de
requisitos por parte del cliente que afecte incrementos previos ya terminados (detección/incorporación tardía) se debe evaluar la factibilidad y
realizar un acuerdo con el cliente, ya que puede impactar fuertemente en
los costos.
La selección de este modelo permite realizar entregas funcionales tempranas al cliente (lo cual es beneficioso tanto para él como para el grupo de desarrollo). Se priorizan las entregas de aquellos módulos o incrementos en que surja la necesidad operativa de hacerlo, por ejemplo
para cargas previas de información, indispensable para los incrementos
siguientes.
El modelo iterativo incremental no obliga a especificar con precisión y
detalle absolutamente todo lo que el sistema debe hacer, (y cómo), antes
de ser construido (como el caso del cascada, con requisitos congelados).
Sólo se hace en el incremento en desarrollo. Esto torna más manejable el
proceso y reduce el impacto en los costos. Esto es así, porque en caso de
alterar o rehacer los requisitos, solo afecta una parte del sistema. Aun-
19
que, lógicamente, esta situación se agrava si se presenta en estado avanzado, es decir en los últimos incrementos. En definitiva, el modelo facilita
la incorporación de nuevos requisitos durante el desarrollo.
Con un paradigma incremental se reduce el tiempo de desarrollo inicial,
ya que se implementa funcionalidad parcial. También provee un impacto
ventajoso frente al cliente, que es la entrega temprana de partes operativas del software.
El modelo proporciona todas las ventajas del modelo en cascada realimentado, reduciendo sus desventajas sólo al ámbito de cada incremento.
El modelo incremental no es recomendable para casos de sistemas de
tiempo real, de alto nivel de seguridad, de procesamiento distribuido, o
de alto índice de riesgos.
1.11 Modelo espiral
El modelo espiral fue propuesto inicialmente por Barry Boehm. Es un modelo evolutivo que conjuga la naturaleza iterativa del modelo MCP con
los aspectos controlados y sistemáticos del Modelo Cascada. Proporciona
potencial para desarrollo rápido de versiones incrementales. En el modelo Espiral el software se construye en una serie de versiones incrementales. En las primeras iteraciones la versión incremental podría ser un modelo en papel o bien un prototipo. En las últimas iteraciones se producen
versiones cada vez más completas del sistema diseñado.
El modelo se divide en un número de Actividades de marco de trabajo,
llamadas «regiones de tareas». En general existen entre tres y seis regiones de tareas (hay variantes del modelo). En la figura 6 se muestra el esquema de un Modelo Espiral con 6 regiones. En este caso se explica una
20
variante del modelo original de Boehm, expuesto en su tratado de 1988;
en 1998 expuso un tratado más reciente.
Las regiones definidas en el modelo de la figura son:
• Región 1 - Tareas requeridas para establecer la comunicación entre el
cliente y el desarrollador.
• Región 2 - Tareas inherentes a la definición de los recursos, tiempo y
otra información relacionada con el proyecto.
• Región 3 - Tareas necesarias para evaluar los riesgos técnicos y de gestión del proyecto.
• Región 4 - Tareas para construir una o más representaciones de la aplicación software.
• Región 5 - Tareas para construir la aplicación, instalarla, probarla y
proporcionar soporte al usuario o cliente (Ej. documentación y práctica).
• Región 6 - Tareas para obtener la reacción del cliente, según la evaluación de lo creado e instalado en los ciclos anteriores.
Las actividades enunciadas para el marco de trabajo son generales y se
aplican a cualquier proyecto, grande, mediano o pequeño, complejo o
no. Las regiones que definen esas actividades comprenden un «conjunto
de tareas» del trabajo: ese conjunto sí se debe adaptar a las características del proyecto en particular a emprender. Nótese que lo listado en los
ítems de 1 a 6 son conjuntos de tareas, algunas de las ellas normalmente
dependen del proyecto o desarrollo en si.
Proyectos pequeños requieren baja cantidad de tareas y también de formalidad. En proyectos mayores o críticos cada región de tareas contiene
labores de más alto nivel de formalidad. En cualquier caso se aplican
actividades de protección (por ejemplo, gestión de configuración del software, garantía de calidad, etc.).
21
Al inicio del ciclo, o proceso evolutivo, el equipo de ingeniería gira alrededor del espiral (metafóricamente hablando) comenzando por el centro
y en el sentido indicado; el primer circuito de la espiral puede producir
el desarrollo de una especificación del producto; los pasos siguientes podrían generar un prototipo y progresivamente versiones más sofisticadas
del software.
Cada paso por la región de planificación provoca ajustes en el plan del
proyecto; el coste y planificación se realimentan en función de la evaluación del cliente. El gestor de proyectos debe ajustar el número de iteraciones requeridas para completar el desarrollo.
El modelo espiral puede ir adaptándose y aplicarse a lo largo de todo el
Ciclo de vida del software (en el modelo clásico, o cascada, el proceso termina a la entrega del software).
Una visión alternativa del modelo puede observarse examinando el «eje
de punto de entrada de proyectos». Cada uno de los circulitos (๏) fijados
a lo largo del eje representan puntos de arranque de los distintos proyectos (relacionados); a saber:
• Un proyecto de «desarrollo de conceptos» comienza al inicio de la espiral, hace múltiples iteraciones hasta que se completa, es la zona marcada
con verde.
• Si lo anterior se va a desarrollar como producto real, se inicia otro proyecto: «Desarrollo de nuevo Producto». Que evolucionará con iteraciones
hasta culminar; es la zona marcada en color azul.
• Eventual y análogamente se generarán proyectos de «mejoras de productos» y de «mantenimiento de productos», con las iteraciones necesarias en cada área (zonas roja y gris, respectivamente).
Cuando la espiral se caracteriza de esta forma, está operativa hasta que
22
el software se retira, eventualmente puede estar inactiva (el proceso),
pero cuando se produce un cambio el proceso arranca nuevamente en
el punto de entrada apropiado (por ejemplo, en «mejora del producto»).
El modelo espiral da un enfoque realista, que evoluciona igual que el software11 ; se adapta muy bien para desarrollos a gran escala.
El Espiral utiliza el MCP para reducir riesgos y permite aplicarlo en cualquier etapa de la evolución. Mantiene el enfoque clásico (cascada) pero
incorpora un marco de trabajo iterativo que refleja mejor la realidad.
Este modelo requiere considerar riesgos técnicos en todas las etapas del
proyecto; aplicado adecuadamente debe reducirlos antes de que sean un
verdadero problema.
El Modelo evolutivo como el Espiral es particularmente apto para el desarrollo de Sistemas Operativos (complejos); también en sistemas de altos
riesgos o críticos (Ej. navegadores y controladores aeronáuticos) y en todos aquellos en que sea necesaria una fuerte gestión del proyecto y sus
riesgos, técnicos o de gestión.
Desventajas importantes:
• Requiere mucha experiencia y habilidad para la evaluación de los riesgos, lo cual es requisito para el éxito del proyecto.
• Es difícil convencer a los grandes clientes que se podrá controlar este
enfoque evolutivo.
Este modelo no se ha usado tanto, como el Cascada (Incremental) o MCP,
por lo que no se tiene bien medida su eficacia, es un paradigma relativamente nuevo y difícil de implementar y controlar.
23
1.12 Mantenimiento
El mantenimiento de software es el proceso de control, mejora y optimización del software ya desarrollado e instalado, que también incluye
depuración de errores y defectos que puedan haberse filtrado de la fase
de pruebas de control y beta test. Esta fase es la última (antes de iterar,
según el modelo empleado) que se aplica al ciclo de vida del desarrollo
de software. La fase de mantenimiento es la que viene después de que el
software está operativo y en producción.
De un buen diseño y documentación del desarrollo dependerá cómo será
la fase de mantenimiento, tanto en costo temporal como monetario. Modificaciones realizadas a un software que fue elaborado con una documentación indebida o pobre y mal diseño puede llegar a ser tanto o más
costosa que desarrollar el software desde el inicio. Por ello, es de fundamental importancia respetar debidamente todas las tareas de las fases
del desarrollo y mantener adecuada y completa la documentación.
El período de la fase de mantenimiento es normalmente el mayor en todo
el ciclo de vida.7 Esta fase involucra también actualizaciones y evoluciones del software; no necesariamente implica que el sistema tuvo errores.
Uno o más cambios en el software, por ejemplo de adaptación o evolutivos, puede llevar incluso a rever y adaptar desde parte de las primeras
fases del desarrollo inicial, alterando todas las demás; dependiendo de
cuán profundos sean los cambios. El modelo cascada común es particularmente costoso en mantenimiento, ya que su rigidez implica que cualquier cambio provoca regreso a fase inicial y fuertes alteraciones en las
demás fases del ciclo de vida.
Durante el período de mantenimiento, es común que surjan nuevas revisiones y versiones del producto; que lo liberan más depurado, con mayor
24
y mejor funcionalidad, mejor rendimiento, etc. Varias son las facetas que
pueden ser alteradas para provocar cambios deseables, evolutivos, adaptaciones o ampliaciones y mejoras.
Básicamente se tienen los siguientes tipos de cambios:
• Perfectivos: Aquellos que llevan a una mejora de la calidad interna del
software en cualquier aspecto: Reestructuración del código, definición
más clara del sistema y su documentación; optimización del rendimiento
y eficiencia.
• Evolutivos: Agregados, modificaciones, incluso eliminaciones, necesarias en el software para cubrir su expansión o cambio, según las necesidades del usuario.
• Adaptivos: Modificaciones que afectan a los entornos en los que el
sistema opera, tales como: Cambios de configuración del hardware (por
actualización o mejora de componentes electrónicos), cambios en el software de base, en gestores de base de datos, en comunicaciones, etc.
• Correctivos: Alteraciones necesarias para corregir errores de cualquier
tipo en el producto software desarrollado.
1.13 Carácter evolutivo del software
El software es el producto derivado del proceso de desarrollo, según la ingeniería de software. Este producto es intrínsecamente evolutivo durante
su ciclo de vida. El software evoluciona, en general, generando versiones
cada vez más completas, complejas, mejoradas, optimizadas en algún aspecto, adecuadas a nuevas plataformas (sean de hardware o sistemas
operativos), etc.
Cuando un sistema deja de evolucionar, eventualmente cumplirá con su
25
ciclo de vida, entrará en obsolescencia e inevitablemente, tarde o temprano, será reemplazado por un producto nuevo.
El software evoluciona sencillamente por que se debe adaptar a los cambios del entorno, sean funcionales (exigencias de usuarios), operativos,
de plataforma o arquitectura hardware.
La dinámica de evolución del software es el estudio de los cambios del
sistema. La mayor contribución en esta área fue realizada por Meir M.
Lehman y Belady, comenzando en los años 70 y 80. Su trabajo continuó
en la década de 1990, con Lehman y otros investigadores de relevancia en
la realimentación en los procesos de evolución (Lehman, 1996; Lehman
et al., 1998; lehman et al., 2001). A partir de esos estudios propusieron
un conjunto de leyes (conocidas como leyes de Lehman) respecto de los
cambios producidos en los sistemas. Estas leyes (en realidad son hipótesis) son invariantes y ampliamente aplicables.
Lehman y Belady analizaron el crecimiento y la evolución de varios sistemas software de gran porte; derivando finalmente, según sus medidas,
las siguientes ocho leyes:
• Cambio continuo: Un programa que se usa en un entorno real necesariamente debe cambiar o se volverá progresivamente menos útil en ese
entorno.
• Complejidad creciente: A medida que un programa en evolución cambia, su estructura tiende a ser cada vez más compleja. Se deben dedicar
recuersos extras para preservar y simplificar la estrucutura.
• Evolución prolongada del programa: La evolución de los programas es
un proceso autorregulativo. Los atributos de los sistemas, tales como tamaño, tiempo entre entregas y la cantidad de errores documentados son
aproximadamente invariantes para cada entrega del sistema.
26
• Estabilidad organizacional: Durante el tiempo de vida de un programa,
su velocidad de desarrollo es aproximadamente constante e independiente de los recursos dedicados al desarrollo del sistema.
• Conservación de la familiaridad: Durante el tiempo de vida de un sistema, el cambio incremental en cada entrega es aproximadamente constante.
• Crecimiento continuado: La funcionalidad ofrecida por los sistemas tiene que crecer continuamente para mantener la satisfacción de los usuarios.
• Decremento de la calidad: La calidad de los sistemas software comenzará a disminuir a menos que dichos sistemas se adapten a los cambios
de su entorno de funcionamiento.
• Realimentación del sistema: Los procesos de evolución incorporan sistemas de realimentación multiagente y multibucle y estos deben ser tratados como sistemas de realimentación para lograr una mejora significativa del producto.
El mantenimiento de software o manutención de software es una de las
actividades más comunes en la ingeniería de software, es el proceso de
mejora y optimización del software después de su entrega al usuario final
(es decir; revisión del programa), así como también corrección y prevención de los defectos.
El mantenimiento de software es también una de las fases en el ciclo de
vida de desarrollo de sistemas (SDLC, sigla en inglés de systemdevelopmentlifecycle), que se aplica al desarrollo de software. La fase de mantenimiento es la fase que viene después del despliegue (implementación)
del software en el campo.
La fase de mantenimiento de software involucra cambios al software para
27
corregir defectos encontrados durante su uso o la adición de nueva funcionalidad mejorando la usabilidad y aplicabilidad del software.
El mantenimiento del software involucra diferentes técnicas específicas.
Una técnica es el rebanamiento estático, la cual es usada para identificar
todo el código de programa que puede modificar alguna variable. Es generalmente útil en la refabricación del código del programa y fue específicamente útil en asegurar conformidad para el problema del año 2000.
La fase de mantenimiento de software es una parte explícita del modelo
en cascada del proceso de desarrollo de software el cual fue desarrollado
durante el movimiento de programación estructurada en computadores.
El otro gran modelo, el Desarrollo en espiral desarrollado durante el movimiento de ingeniería de software orientada a objeto no hace una mención explícita de la fase de mantenimiento. Sin embargo, esta actividad es
notable, considerando el hecho de que dos tercios del coste del tiempo
de vida de un sistema de software involucran mantenimiento.
En un ambiente formal de desarrollo de software, la organización o equipo de desarrollo tendrán algún mecanismo para documentar y rastrear
defectos y deficiencias. El Software tan igual como la mayoría de otros
productos, es típicamente lanzado con un conjunto conocido de defectos
y deficiencias. El software es lanzado con esos defectos conocidos porque
la organización de desarrollo en las utilidades y el valor del software en
un determinado nivel de calidad compensa el impacto de los defectos y
deficiencias conocidas.
Las deficiencias conocidas son normalmente documentadas en una carta
de consideraciones operacionales o notas de lanzamiento (release notes)
es así que los usuarios del software serán capaces de trabajar evitando
las deficiencias conocidas y conocerán cuándo el uso del software sería
28
inadecuado para tareas específicas.
Con el lanzamiento del software (software release), otros defectos y deficiencias no documentados serán descubiertas por los usuarios del software. Tan pronto como estos defectos sean reportados a la organización
de desarrollo, serán ingresados en el sistema de rastreo de defectos.
Las personas involucradas en la fase de mantenimiento de software esperan trabajar en estos defectos conocidos, ubicarlos y preparar un nuevo
lanzamiento del software, conocido como un lanzamiento de mantenimiento, el cual resolverá los temas pendientes.
1.14 Mantenimiento Correctivo:
Mantenimiento correctivo de software, como la palabra lo indica, es corregir un problema que tiene un software, ya sea de programas o del
sistema operativo.
Ejemplos de esto es:
Las actualizaciones que Windows hace para disminuir las vulnerabilidades.
Instalación de software antivirus para corregir daños que hayas sufrido
con algún virus.
También implica, buscar información inútil, programas residentes, y demás software que no necesitas o que funciona incorrectamente.
El mantenimiento y lo necesario para realizarlo depende íntegramente
del software que deseas habilitar. Depende si es de sistema operativo, y
si lo es, depende si es Windows, MacOs, Unix.
Si es software de base de datos, también depende cuál base de datos.
Incluso si se trata de un juego o el mismo internet Explorer, al que es ne-
29
cesario borrar registros viejos de páginas viejas, etc.
Otra opción de mantenimiento correctivo y puede ser la más eficiente de
todas el formateo del disco duro y la instalación de una copia de Windows
nueva, esto se hace cuando el problema que pudiera tener el sistema es
muy grande y que no se puede resolver con software de prevencion.
Como conclusion tenemos que el mantenimiento correctivo de software
es muy utilizado hoy en dia, por que cada vez mas aumenta la cantidad de
virus y cada vez son mas peligrosos; pero con la tecnologia van saliendo
mas programas utilez para poder realizar este mantenimiento tan importante.
El mantenimiento preventivo es una actividad programada de inspecciones, tanto de funcionamiento como de seguridad, ajustes, reparaciones,
análisis, limpieza, lubricación, calibración, que deben llevarse a cabo en
forma periódica en base a un plan establecido. El propósito es prever
averías o desperfectos en su estado inicial y corregirlas para mantener la
instalación en completa operación a los niveles y eficiencia óptimos.
30
CAPITULO 2. ENTORNO DE TRABAJO
31
2.1 INTRODUCCION
El mantenimiento preventivo ayudará a alargar el buen funcionamiento
de la PC, para ello se tiene que contar con una mesa de trabajo, la cual
preferentemente no debe de ser conductora (que no sea de metal o similar), se debe de tener el área o mesa de trabajo libre de polvo o estorbos.
También es importante contar con las herramientas y material adecuado,
todo esto para poder facilitar el trabajo:
El multímetro digital es un instrumento electrónico de medición que generalmente calcula voltaje, resistencia y corriente, aunque dependiendo
del modelo de multímetro puede medir otras magnitudes como capacitancia y temperatura. Gracias al multímetro podemos comprobar el correcto funcionamiento de los componentes y circuitos electrónicos.
Leyendo el instructivo: Es importante leer el instructivo del fabricante
para asegurar el buen funcionamiento del instrumento y evitar accidentes en el operario.
32
Ventajas sobre el multímetro analógico: Una palabra lo dice todo, exactitud.
2.2 PARTES Y FUNCIONES DE UN MULTÍMETRO DIGITAL.
A continuación describiremos las partes y funciones de un multímetro
(Steren MUL-270), recuerda que generalmente los multímetros son semejantes, aunque dependiendo de modelos, pueden cambiar la posición de
sus partes y la cantidad de funciones, es por eso que cada parte tiene un
símbolo estándar que identifica su función.
1.- Power: Botón de apagado-encendido.
2.- Display: Pantalla de cristal líquido en donde se muestran los resultados de las mediciones.
3.- Llave selectora del tipo y rango de medición: Esta llave nos sirve para
seleccionar el tipo de magnitud a medir y el rango de la medición.
4.- Rangos y tipos de medición: Los números y símbolos que rodean la
llave selectora indican el tipo y rango que se puede escoger. En la imagen
anterior podemos apreciar los diferentes tipos de posibles mediciones
33
de magnitudes como el voltaje directo y alterno, la corriente directa y
alterna, la resistencia, la capacitancia, la frecuencia, prueba de diodos y
continuidad.
5.- Cables rojo y negro con punta: El cable negro siempre se conecta al
borne o jack negro, mientras que el cable rojo se conecta al jack adecuado según la magnitud que se quiera medir. A continuación vemos la forma en que se conectan estos cables al multímetro.
6.- Borne de conexión o jack negativo: Aquí siempre se conecta el cable
negro con punta.
7.- Borne de conexión o jack para el cable rojo con punta para mediciones
de voltaje (V), resistencia (Ω) y frecuencia (Hz). Su símbolo es el siguiente.
8.- Borne de conexión o jack para el cable rojo con punta para medición
de miliamperes (mA).
9.- Borne de conexión o jack para el cable rojo con punta para medición
de amperes (A).
10.- Zócalo de conexión para medir capacitares o condensadores.
11.- Zócalo de conexión para medir temperatura.
2.3 UTILIZANDO EL MULTÍMETRO DIGITAL.
A continuación mediremos algunas magnitudes utilizando el multímetro
digital.
34
a) Midiendo resistencia: Medir una resistencia es un procedimiento sencillo, lo primero que hacemos es conectar los cables en los jacks correctos, luego movemos la llave selectora al símbolo Ω y escogemos el rango
adecuado de acuerdo a la resistencia proporcionada por el resistor, si no
lo sabemos, escogemos el rango más alto y lo disminuimos poco a poco
hasta llegar a un cantidad diferente de uno (el uno indica que el rango
es muy pequeño para medir esa resistencia) y con el mayor número de
decimales, tocamos los extremos del resistor con las puntas roja y negra
y finalmente multiplicamos la cantidad por el valor del rango. En la imagen anterior medí un resistor de 800 ohms y en la lectura me dio .809 por
manejar el rango de 200 ohms a 2 kohms (2000 ohms), por lo que media
realmente 809 ohms.
Esto lo podemos comprobar teóricamente al observar las bandas del resistor y hacer las operaciones correspondientes por medio de su código
de colores. ¿Como sacar la resistencia de un resistor mediante su código
de colores ?
35
b) Midiendo voltaje (voltaje continuo o directo): Ahora mediremos una
pila AA de 1.5 V, esta algo gastada así que veamos que sucede. Lo primero
que haremos es colocar la punta del cable rojo en el electrodo positivo
de la pila y el negro en el negativo, el resultado aparece en la pantalla del
multímetro como lo podemos ver a continuación.
c) Midiendo capacitancia y corriente: Al medir un capacitor o condensador, este debe estar descargado ya que almacena energía, y se debe
tener cuidado al medir corriente. Aún no he medido ninguna de estas
magnitudes, así que cuando lo haga les explicare como hacerlo.
2.4 CAUTÍN
El cautín es una herramienta eléctrica muy sencilla que posee un conjunto de elementos que al estar correctamente conectados van a generar en
una barra de metal el calor suficiente para poder derretir los distintos
metales (estaño, oro, etc.) utilizados para las soldaduras de los circuitos
36
eléctricos y electrónicos. El mismo está compuesto por cinco elementos
básicos y fundamentales para su funcionamiento correcto.
Barra de metal, Alambre cobre, Cable de conexión, Enchufe y Estructura
de plástico o madera
Para la explicación del sistema eléctrico del cautín se hace necesaria la
definición de sistema. Por lo cual se tiene que un sistema es un conjunto
de elementos que se encuentran dinámicamente relacionados formando
una actividad para producir información, energía, materia, etc.
Partiendo de lo anteriormente planteado, el sistema eléctrico del cautín,
va a comenzar por el paso de la energía eléctrica mediante el enchufe
adquirida de un toma corriente, y luego a través del cable de conexión
hasta llegar al alambre de cobre que al estar enrollado sobre la barra de
metal va a generar calor.
El cautín es una herramienta para soldar circuitos eléctricos o electrónicos con algunos metales, además es usado como pirógrafo que en un método de arte. Esta herramienta esta compuesta por un conjunto de piezas
o elementos que a su vez forman un circuito eléctrico generador de calor,
que servirá para el derretimiento de los metales blandos de soldadura y
para las distintas modalidades de arte.
37
2.5 Pulsera antiestática
Es lo más recomendable. Una pulsera antiestática consiste en un conductor que permite la descarga de la electricidad estática que nuestro cuerpo genera o recibe por el roce con ropa, muebles o el suelo. Aunque esa
electricidad estática es de bajo voltaje y amperaje es superior a lo que
normalmente toleran los circuitos de una computadora, que operan en
promedio a no más de 12 voltios.
Si se da mantenimiento a una computadora y se tocarán sus circuitos
pero no se dispone de una pulsera antiestática conviene entonces estar
parado en una superficie aislante, así como usar ropa que no genere ese
tipo de estática. La ropa de lana, por ejemplo es un peligro para los circuitos de nuestro equipo.
Existen pulseras antiestáticas desechables y otras de uso continuo. Se
pueden conseguir en tiendas especializadas de electrónica.
38
CAPITULO 3. MANTENIMIENTO PREVENTIVO AL EQUIPO DE CÓMPUTO.
39
3.1 INTRODUCCIÓN
El mantenimiento preventivo permite detectar falo repetitivos, disminuir
los puntos muertos por paradas, aumentar la vida útil de los equipos, disminuir costos de reparaciones, detectar puntos débiles en la instalación
entre una larga lista de ventajas.
Es algo relativo a la informática, el mantenimiento preventivo consiste
en la revisión periódica de ciertos aspectos, tanto de hardware como de
software en un PC. Estos influyen en el desempeño fiable del sistema , en
la integridad de los datos almacenados y en un intercambio de información completa, a la máxima velocidad posible dentro de la configuración
optima del sistema.
Dentro del mantenimiento preventivo existe software que permite al
usuario vigilar constantemente el estado de su equipo, así como también
realizar pequeños ajustes de una manera fácil.
Además debemos agregar que el mantenimiento preventivo en general
se ocupa en la determinación de condiciones operativas, de durabilidad
de un equipo en mención este tipo de mantenimiento nos ayuda en reducir los tiempos que pueden generarse por mantenimiento correctivo.
El mantenimiento preventivo es considerado valioso para los organizadores, existen una serie de fallas en la maquinaria o errores humanos a
la hora de realizar estos procesos de almacenamiento. El mantenimiento
preventivo planificado y la sustitución planificada son dos de las tres políticas disponibles para los ingenieros de mantenimiento.
Algunos de los métodos mas habituales para determinar que procesos de
mantenimiento preventivo deben llevarse a cabo son las recomendaciones de ls fabricantes, legislación vigente, las recomendaciones de expertos y las acciones llevadas acabo sobre activos similares.
40
3.1.1 Mantenimiento al software.
El mantenimiento de software o manutención de software es una de las
actividades mas comunes en la ingeniería de software, es el proceso de
mejora y optimización del software después de su entrega al usuario final
(es decir, revisión del programa), así como también corrección y prevención de los defectos.
El mantenimiento de software es también una de las fases en el ciclo de
vida de desarrollo de sistemas (SDLC, sigla en ingles) que se aplica al desarrollo de software. La fase de mantenimiento es la fase que viene después del despliegue (implementación) del software en el campo.
En un ambiente formal de desarrollo de software, la organización o equipo de desarrollo tendrán algún mecanismo para documentar y rastrear
defectos y deficiencias. El software tan igual como la mayoría de otros
productos, es típicamente lanzado con un conjunto conocido de defectos
y deficiencias. El software es lanzado con esos defectos conocidos porque
la organización de desarrollo en las utilidades y el valor del software en
un determinado nivel de calidad compensan al impacto de los defectos y
deficiencias conocidas.
Las deficiencias conocidas son normalmente documentadas en una carta
de consideraciones operacionales o notas de lanzamiento (reléase notes)
es asi que los usuarios del software serán capaces de trabajar evitando
las deficiencias conocidas y conocerán cuando el uso del software seria
inadecuado para tareas especificas.
Las personas involucradas en la fase de mantenimiento de software esperan trabajar en estos defectos conocidos, ubicarlos y preparar un nuevo
lanzamiento del software, conocido como lanzamiento de mantenimiento, el cual resolverá los temas pendientes.
41
3.2 Tipos de mantenimiento
Estos son los tipos de mantenimientos existentes, definidos tal y como se
especifican para la metodología de métrica:
 Perfectivo: son las acciones llevadas a cabo para mejorar la calidad interna de los sis temas en cualquiera de sus aspectos: reestructuración del
código, definición mas clara del sistema y optimización del rendimiento y
eficiencia.
 Evolutivo. Son las incorporaciones, modificaciones y eliminaciones necesarias en un producto software para cubrir la expansión o cambio en
las necesidades del usuario.
 Adaptativo. Son las modificaciones que afectan a los entornos en los
que el sistema parte de opera, por ejemplo, cambios de configuración del
software, software de base, gestores de base de datos, comunicaciones,
etc.
 Correctivo. Son aquellos cambios precisos para corregir errores del
producto software.
Cabe señalar que, de estos cuatro tipos de mantenimiento, solamente el
correctivo y el evolutivo entran en el ámbito de METRICA versión 3, ya que
los otros dos requieren actividades y perfiles distintos a los del proceso
de desarrollo.
3.3 Sistema operativo.
un sistema operativo es el software encargado de ejercer el control y
coordinar el uso del hardware entre diferentes programas de aplicación y
los diferentes usuarios. Es un administrador de los recursos de hardware
42
del sistema.
En una definición informal es un sistema que consiste en ofrecer una
distribución ordenada y controlada de los procesadores , memorias y
dispositivos de E/S entre los diversos programas que compiten por ellos,
a pesar de que todos nosotros usamos sistemas operativos casi a diario,
es difícil definir que es un sistema operativo. En parte, esto se debe a que
los sistemas operativos realizan dos funciones diferentes.
Proveer una maquina virtual, es decir, un ambiente en el cual el usuario
puede ejecutar programas de manera convincente, protegiendo de los
detalles complejidades del hardware. Administrar eficientemente los recursos de la computadora.
 Realizar el interfaz sistema-usuario
 Compartir los recursos de hardware entre lso usuarios
 Permitir a los usuarios compartir sus datos entre ellos
 Prevenir que las actividades de un usuario no interfieran en la de los
demás usuarios
 Calendarizar los recursos de los usuarios
 Facilitar el acceso a los dispositivos de E/S
 Recuperarse de fallas o errores
 Llevar el control sobre el uso de los recursos
3.4 Copia de seguridad.
Una copia de seguridad o backup en tecnologia de la información o informática es una copia de seguridad o el proceso de copia de seguridad- con
el fin de que estas copias adicionales puedan utilizarse para restaurar el
43
original después de una eventual perdida de datos. El verbo es copia de
seguridad en dos palabras, mientras que el sustantivo es respaldo. También se emplea el termino a veces como autentismo para denominar a
cualquier archivo copiado sin autorización. Fundamentalmente son para
dos cosas, primero , recuperarse de una catástrofe informática. Segundo
recuperar una pequeña cantidad de archivos que pueden haberse eliminado accidentalmente o corrompido. La perdida de datos es muy común:
el 66% de los usuarios de internet han sufrido una seria perdida de datos.
Ya que los sistemas de respaldo contienen por lo menos una copia de
datos que vale la pena salvar, deben de tenerse en cuenta los requerimientos de almacenamiento. La organización del espacio de almacenamiento y la administración del proceso de efectuar la copia de seguridad
son tareas complicadas. Para brindar una estructura de almacenamiento
es conveniente utilizar un modelo de almacenaje de datos. Actualmente, existen muchos tipos diferentes de dispositivos para almacenaje de
datos que son útiles para hacer copias de seguridad, cada uno con sus
ventajas y desventajas a tener en cuenta para elegirlos, como duplicidad,
seguridad en los datos y facilidad de traslado.
Antes de que los datos sean enviados a su lugar de almacenamiento se lo
debe seleccionar, extraer y manipular. Se han desarrollado muchas técnicas diferentes para optimizar el procedimiento de efectuar los backups.
Estos procedimientos incluyen entre otras optimizaciones para trabajar
con archivos abiertos y fuentes de datos en uso y también incluyen procesos de comprensión, cifrado y procesos de duplicación, entendiéndose
por esto ultimo a una forma especifica de comprensión donde los datos
superfluos son eliminados. Muchas organizaciones o individuos tratan
de asegurarse que que el proceso de backup se efectué de la manera es-
44
perada y trabajan en la evaluación y la validación de técnicas utilizadas.
También es importante reconocer las limitaciones y los factores humanos
que están involucrados en cualquier esquema de backup que se utilice.
Las copias de seguridad garantizan dos objetivos: integridad y disponibilidad.
3.5 Propuestas de copias de seguridad de datos
Decidir que se va a incluir en la copia de seguridad es u proceso mas
complejo.
Si copiamos muchos datos redundantes agotamos la capacidad de almacenamiento disponible rápidamente. Si no realizamos una copia de seguridad de los suficientes datos, podría perderse información critica.
La clave esta en guardar copias de seguridad solo de aquello que se ha
modificado.
3.6 Copia de seguridad de datos en uso.
Si un ordenador esta en uso mientras se ejecuta su copia de seguridad
existe la posibilidad de que haya ficheros abiertos, ya que puede que se
este trabajando sobre ellos. Si un fichero esta abierto, el contenido en el
disco posiblemente no refleje exactamente lo que el usuario ve. Esto es
especialmente frecuente en ficheros de bases de datos.
Cuando se intenta entender la logística de la copia de seguridad de ficheros abiertos, uno debe considerar que el proceso de copia de seguridad
puede llevar varios minutos en copiar un gran fichero como una base de
datos. A fin de copiar un fichero en uso , es vital que la copia de seguri-
45
dad entera represente un único paso. Esto representa un reto cuando se
esta copiando un fichero en continua modificación. Aunque el archivo de
base de datos esta bloqueado para evitar cambios, se debe implementar
un método para asegurar que el originalsnapshot sea preservado con
tiempo de sobre apara ser copiado, incluso cuando se mantengan los
cambios.
3.7 Software de copias de seguridad
Existe una gran cantidad de software en el mercado para realizar copias
de seguridad. Es importante definir previamente los requerimientos específicos para determinar el software adecuado.
Entre los mas populares se encuentran arcserver, zendalbackup, cobian,
secifi y nortonghost.
Existe una infinidad de programas adaptados a cada necesidad.
Para la adecuación a la LOPD de ficheros con datos de carácter personal
de nivel alto (salud, vida sexual, religión, etc…) la regulación exige que
las copias de seguridad de dichos datos se almacenen cifrados y en una
ubicación diferente al lugar de origen.
La copia de seguridad es el mejor método de protección de datos de importancia, pero siempre existe la posibilidad de que la copia de datos no
haya funcionado correctamente y en caso de necesidad de restauración
de los datos no podamos realizarlo ya que la información de la copia de
seguridad puede encontrarse corrupta por diversos motivos.
• El medio en el que se realiza la copia se encuentra dañado
• Los automatismos de copia no se han ejecutado correctamente
• Y otros muchos motivos que pueden causar que nuestras copias sean
46
incorrectas,y por lo tanto inútiles.
Para evitar este problema es muy importante que nos sercioremos de que
hacemos las copias correctamente y comprobemos que somos capaces
de restaurar la copia de seguridad a su ubicación original, comprobando
asi que la copia sea correcta y que somos capaces de restaurarla y conocemos el método de restauración, ya que en caso de necesidad critica los
nervios afloran y nos pueden echar por tierra nuestra labor de copia al
realizar algún paso erróneo a la hora de restaurar los datos.
3.8 Consejos
• Debería incluir en su copia de seguridad toda aquella información que
no podría recuperar de otro modo.
• Considerar que se si utiliza un disco duro externo para sus respaldos
de datos y este se daña por cualquier motivo, la garantía no cubre la perdida de información almacenada en dicha unidad.
3.9 Desfragmentación
La desfragmentación es el proceso mediante el cual se acomodan los archivos de un disco de tal manera que cada uno quede en un area contigua
y sin espacios sin usar entre ellos. Al irse escribiendo y borrando archivos continuamente en el disco duro, estos tienden a no quedar en areas
contiguas, asi, un archivo puede quedar “partido” en muchos pedazos a
lo largo del disco, se dice entonces que el archivo esta “fragmentado”. Al
tener los archivos esparcidos por el disco, se vuelve ineficiente el acceso
47
a ellos.
La fragmentación es un problema quesurge debido al ordenamineto interno de los datos en algunos sistema de archivos. Se da muy comúnmente en el sistema operativo Windows aunque también afecta a otras
plataformas pero en una escala mucho menor. También se produce fragmentación dentro de la memoria del computador (memoria RAM) cuando
se asignan los procesos a los diferentes bloques de memoria. Existen dos
tipos de fragmentación:
Doble y triple.
Desfragmentar no hace que el ordenador trabaje mas rápido, si no que
agiliza el proceso de la navegación por los archivos.
3.9.1 Desfragmentacion de unidades de almacenamiento.
Los archivos conforme los vaz actualizando, se van guardando en diferentes partes de unidad de almacenamiento asi que llega el tiempo en que
mucha de la información se encuentra regada por toda la unidad. Esto
hace que el proceso de localización de un archivo se aga mas lento y en
consecuencia se vea que la computadora trabaje a menor velocidad. Esto
es por eso que se recomienda desfragmentar periódicamente las unidades de almacenamiento.
Para realizar la desfragmentación sigue los siguientes pasos:
1)Selecciona la siguiente ruta con el mouse: botón inicio\programas\accesorios\herramientasdelsistema\desfragmentador de disco
2) Selecciona la unidad a desfragmentar y da clic en aceptar
3)Cuando la desfragmentación termine puedes cerrar todas las ventanas.
48
3.9.2 Corregir errores lógicos en unidades de almacenamiento.
Unidades de disco duro de su ordenador el uso de sistema una pequeña
placa circular revestida con una superficie magnética. Este disco gira a
velocidades superiores a 5000 rpm. La maquina de funcionamiento del
sistema utiliza una cuadricula de diseño circular a posiciones de índice
sobre la superficie del disco. El sistema de indexación de disco se compone de:
• Pistas que son circulares y concentradas
• Disco sectores, que son de bloque radial
El tamaño de almacenamiento de disco, el numero de pistas y sectores
explica el mínimo tamaño de bloque de almacenamiento en disco de cualquier persona, y eso exige propensión a la fragmentación de archivos,
véase mi articulo howToDoThings otros en la mejora de su disco duro del
equipo de respuesta. HDD pequeños tienen menor minimi de almacenamiento de bloques que las grandes unidades de capacidad, haciendo mas
eficiente el almacenamiento de pequeños ficheros de datos, sin embargo,
el espacio de almacenamiento de disco de los costos prograsivamente
menos con el tiempo y nadie parece molestarse acerca de esto.
En la moderidad de unidades de disco duro es almacenar mas de 500GB
de datos (GB = gigabyte – 1 mil millones de bytes) por lo que no ninguna
sorpresa encontrar pequeñas imperfecciones en la superficie magnetica,
que no registro fiable. Estos pequeños errores son usualment encontrados en la fabrica cuando una inicial “formato” se lleva a cabo la operación.
La ubicación de cualquier superficie de los errores de disco puede ser
49
grabado por el sistema operativo una vez instalado en la maquina, por lo
que esos lugares no se utilizan para almacenar datos (el termino técnico
para esto es que son “trazado” de uso).
Una vez que el disco se instala y se usa normalmente la fialidad es buena
– la mayoría de discos tiene un tiempo medio antes de fallo en el tiempo
nominal de 100,000 horas. Por lo tanto, esperamos que la suya será la
mitad que el tiempo de fracaso es mas que la media.
Menor tamaño de los discos (por tanto en el almacenamiento y las dimensiones físicas) se ejecutan a la mayoría de las maquinas portátiles – por lo
que requieren menos trabajo a girar en torno a la bandeja, y el pequeño
tamaño es menos propenso a daños causados por fuerzas externas.
3.9.3 Depurar archivos
Un depurador, es un programa usado para probar y depurar (eliminar
los errores) de otros programas (el programa objetivo) el código a ser
examinado puede alternativamente estar corriendo en un simulador de
conjunto de instrucciones (ISS), una técnica que permite gran potencia en
su capacidad de detenerse cuando son encontradas condiciones especificas pero será típicamente algo mas lento que ejecutando el código directamente en el apropiado (o el mismo) procesador. Algunos depuradores
ofrecen dos modos de operación – la simulación parcial o completa, para
limitar este impacto.
En el trabajo con herramientas de programación, consiste en la revisión
de la aplicación generada con el fin de eliminar los posibles errores que
pueden existir en esta. También persigue la optimización del programa
50
para que su funcionalidad y velocidad sean las máximas.
Cuando nosotros usamos mucho la computadora con el tiempo se alenta,
tiene muchos errores, etc.… Esto es provocado por archivos que ya no se
necesitan, por programas que ya no utilizamos, o por archivos temporales etc.
3.9.4 Utilerías
As utilerías son programas que hacen un puente sobre el espacio entre la
funcionalidad de S.O. y las necesidades de los usuarios; muchos usuarios
de computadoras encuentran inconvenientes de usar sus computadoras
solo con el sistema operativo básico y sus aplicaciones.
Los programas de utilerías son una amplia categoría de software. Van
desde programas que pueden organizar o comprimir los archivos de un
disco, hasta que los proporcionan una interfaz de menús a los S.O. de
línea de comando.
Norton utilities, por ejemplo, es un conjunto de software que contiene
mas de 30 programas útiles para extender y mejorar las capacidades de
un S.O.
3.9.5 Antivirus
Los antivirus son programas cuyo objetivo es detectar y\o eliminar virus
informáticos.
51
3.9.6 Emplear las utilerías del antivirus
Los sistemas de computación, específicamente aquellos conectados al
mundo del internet, son suscepciones de uso no autorizado y virus. Virus
de computadora: pequeño programa creado por vándalos electrónicos
que pueden tener varios efectos indeseables. Los virus se propagan al
unirse por cuenta propia a los archivos, usualmente archivos de programas ejecutables. Cuando se corre un programa infectado con un virus,
este se carga a si mismo en la memoria de su computadora junto con el
programa huésped y puede infectar a cualquier otro programa que corra.
Si transfieres ocasionalmente archivos o intercambias discos flexibles
con otros usuarios de computadora puedes sin querer, esparcir el virus.
Con tales virus potencialmente destructivos en circulación, rastrearlos,
erradicarlos, y prevenir su propagación es el objetivo primordial de los
programas de utilería antivirus.
3.9.7 Emplear las utilerías de software
Estos productos sirven como intermediarios entre el software de control de sistemas y el software de aplicación, asegurando que los programas de aplicación sean escritos y se ejecuten eficientemente. Este tipo
de software incluye: compiladores, a los cuales convierten los programas
escritos en lenguajes de alto nivel en código que la computadora puede
entender; sistemas de control de bases de datos, que actúan como librerías electrónicas para obtener seguimiento de datos; ambientes integrados, basados en ventanas, que permiten a los usuarios realizar mas de
una operación a la vez.
La línea que separa al software de control del sistema y las utilerías de
52
software es puramente conceptual, y difícilmente precisa. De hecho, el
limite de lo que se considera el sistema operativo esta también lejos de
estar definido.
3.9.8 Fragmentación de archivos
Las unidades de disco proporcionan gran velocidad, eficiencia y convivencia, pero también presentan sus problemas. Cuando un disco es nuevo e instalas software de archivos de información en el, S.O. coloca los
archivos en el disco en orden secuencial, los archivos en si mismos son
contiguos. Sin embargo, después de que el sistema ha sido utilizado por
algún tiempo, los archivos pueden ser fragmentados, lo cual significado
que ya no son contiguos.
Un archivo fragmentado es aquel en el que sus partes están físicamente
separadas. El único problema con los archivos fragmentados es que en el
que el S.O. le toma mas tiempo leerlos y escribirlos a disco debido a que
esta debe volver a posicionar sus cabezas de lectura y escritura varias
veces mientras trabaja con el mismo archivo.
3.9.9 Compresión de datos
Las primeras empresas en la comprensión de datos para PC fueron pequeños programas que combinan un grupo de archivos dentro de uno
solo y simultáneamente los comprimían a una fracción de su tamaño normal.
Para usar esta característica solo necesitas correr un programa que comprímelos archivos en un disco y coloca un pequeño programa controla-
53
dor. El tiempo requerido para comprimir y descomprimir la información
es tan pequeño que no se nota. La vantidad de espacio que se puede
ganar mediante el uso de este tipo de utilería es significativa, la técnica
puede duplicar efectivamente la capacidad del disco.
3.9.10 Firewall
El cortafuegos (firewall) es un elemento utilizado en redes de computadoras para controlar las comunicaciones, permitiéndolas o prohibiéndolas.
Un firewall es un dispositivo que funciona como cortafuegos entre redes,
permitiendo o denegando las transmisiones de una red a la otra.
Un uso típico es situarlo entre una red y la red internet, como dispositivo
de seguridad para evitar que los intrusos puedan acceder a información
confidencial.
Un firewall es simplemente un foltro que controla todas las comunicaciones que pasan de una red a la otra y en función de lo que sean permite i
deniega su paso.
Para permitir o denegar un comunicación el firewall examina el tipo de
servicio al que corresponde, como pueden ser el de la web, el correo o el
IRC.
Dependiendo del servicio el firewall decide si lo permite o no.
54
GLOSARIO DE TERMINOS INFORMATICOS
A: la letra que designa a la primera disquetera en el sistema operativo
DOS
ATX: formato de placa base bastante moderno cuyas principales características son una mejor ventilación y accesibilidad, además del uso de
clavijas mini-DIN y una gran integración de componentes.
Baby-AT: el formato de placa base más extendido en el mundo PC, en
progresiva sustitución por el ATX, del que se diferencia entre otras cosas por usar clavija DIN ancha para el teclado y tener una peor disposición de los componentes.
BIOS: Basic Input-Output System, sistema básico de entrada-salida.
Programa incorporado en un chip de la placa base que se encarga de
realizar las funciones básicas de manejo y configuración dla computadora.
bit: unidad mínima de información de la memoria, equivalente a un “sí”
(0) o un “no” (1) binarios. La unión de 8 bits da lugar a un byte.
bps: bits por segundo, unidad de transmisión de datos, empleada principalmente en
referencia a módems o comunicaciones de red.
bus: canal por el que circula información electrónica en forma de bits.
El ancho de
bus es el número de bits transmitidos simultáneamente por el bus.
byte: unidad de información, compuesta de 8 bits consecutivos. Cada
byte puede
representar, por ejemplo, una letra.
C: (1) la letra que designa a la primera unidad de disco duro o a la pri-
55
mera partición activa de éste en el sistema operativo DOS.
C: (2) uno de los lenguajes de programación más utilizados en la actualidad.
caché: cualquier tipo de memoria “intermedia” entre dos aparatos, que
acelera las comunicaciones y transmisiones de datos entre ellos. Por
extensión, se aplica a la “caché de nivel 2”, es decir, la que está en la
placa base, entre el microprocesador y la memoria.
controlador: forma española de denominar los drivers.
coprocesador: cualquier microchip que realice una operación especializada, ayudando o liberando al microprocesador principal de realizarla.
Generalmente, se entiende por tal al específicamente “matemático”,
aunque en la actualidad éste suele venir integrado en el micro principal.
cps: caracteres por segundo que puede escribir una impresora.
CPU: Central Processing Unit o Unidad Central de Proceso. El “cerebro”
de un ordenador; en general, sinónimo de microprocesador. En ocasiones se usa para referirse al toda la caja que contiene la placa base, el
micro y las tarjetas de expansión.
DIMM: tipo de conector para memoria RAM; los módulos a conectar
tienen 168 contactos.
Disipador: aparato que ayuda a eliminar el calor generado por un cuerpo, en general el microprocesador del equipo, en ocasiones con la colaboración de un ventilador. Para ello, busca tener buena conducción
del calor (suelen ser de cobre) y gran superficie.
DOS: un sistema operativo para PC, monousuario y monotarea, del que
derivan los Windows 95, 98 y ME. Existen versiones del DOS de Microsoft, IBM y Digital
56
Research, entre otros.
Driver: pequeño programa cuya función es controlar el funcionamiento
de un dispositivo dla computadora bajo un determinado sistema operativo.
DVD: Digital Video Device, dispositivo digital de vídeo. Dispositivo óptico de almacenamiento masivo capaz de albergar entre 4,7 y 17 GB en
cada disco de 12 cm (de apariencia similar a los CDs).
EIDE: Enhanced IDE, o IDE mejorado. Actualmente el estándar para manejo de discos duros; también llamado Atapi o Ata-4. Permite manejar
hasta 4 dispositivos (discos duros, CD-ROMs...) en dos canales IDE separados, cada uno con su interrupción IRQ correspondiente. En la actualidad, la práctica totalidad de los PCs llevan una controladora EIDE
integrada en la placa base.
EISA: Extended-ISA, tipo de slot para tarjetas de ampliación basado en
el estándar ISA, pero de 32 bits y capaz de 32 MB/s de transferencia;
actualmente en desuso debido a la implantación del PCI.
Escaner: aparato capaz de introducir información óptica (documentos,
fotos...) en la computadora.
FDD: Floppy Disk Device, forma inglesa de denominar la disquetera.
Floppy: forma inglesa de denominar al disquete.
GB: gigabyte, múltiplo del byte equivalente a 1024 megabytes. Más correcta, aunque menos utilizada, es la forma Gb. Coloquialmente, giga.
hardware: la parte física dla computadora (placa, micro, tarjetas, monitor...).
HDD: Hard Disk Device, forma inglesa de denominar al disco duro.
IDE: Integrated Drive Electronics, disco con la electrónica integrada. Una
tecnología para el diseño y manejo de dispositivos, generalmente discos
57
duros; hoy en día el estándar entre los ordenadores PCs de prestaciones
“normales”. El número máximo de dispositivos que pueden ser manejados por una controladora IDE es de 2, mientras que si es EIDE pueden ser
hasta 4.
ISA: Industry Standard Architecture, un tipo de slot o ranura de expansión de 16 bits capaz de ofrecer hasta 16 MB/s a 8 MHz.
jumper: tipo de interruptor de muy pequeño tamaño que se usa en numerosas piezas harware, especialmente la placa base. Consiste en dos patillas
metálicas que deben unirse mediante una pieza metálica,generalmente
recubierta a su vez de plástico.
LCD: Liquid Crystal Display, pantalla de cristal líquido. Tecnología electrónica que permite crear pantallas planas.
LED: Light Emitting Diode, diodo emisor de luz. Un dispositivo luminoso
de pequeño tamaño utilizado en electrónica.
Master: en español “maestro”, el nombre asignado al primero de los dos
dispositivos de un canal IDE, en contraste al “slave”, que es el segundo.
MB: megabyte, múltiplo del byte equivalente a 1024 kilobytes. Más
correcta, aunque menos utilizada, es la forma “Mb”. Coloquialmente,
“mega”.
MHz: megahertzio, múltiplo del hertzio igual a 1 millón de hertzios. Utilizado para medir la “velocidad bruta” de los microprocesadores.
Pentium: microprocesador de Intel de 32 bits con arquitectura superescalar, capaz de hacer el procesamiento paralelo de dos instrucciones
por ciclo de reloj y con una unidad matemática muy mejorada respecto
de la del 486.
Pin: cada uno de los conectores eléctricos de muchos elementos hardware, como las “patitas” de muchos microprocesadores.
58
POST: Power On Self Test, el test que realiza la BIOS dla computadora
a los dispositivos al arrancar.
PPP: Point to Point Protocol, protocolo de comunicaciones en el que se
basan muchas redes.
ppp: “puntos por pulgada” (en inglés, “dpi”). Número de puntos que
imprime una impresora en cada pulgada; “300 dpi” significa 300x300
puntos en cada pulgada cuadrada.
RAM: Random Access Memory, o Memoria de Acceso aleatorio. La memoria principal en la que se almacenan los datos durante el funcionamiento de un ordenador, la cual se borra al apagarlo. De diversos tipos
(Fast Page, EDO, SRAM...) y conectores (SIMM, DIMM...).
ROM: Read Only Memory, o Memoria de sólo lectura. Un tipo de memoria “estática”, es decir, que no se borra al apagar la computadora y en
principio en la que no puede escribirse, salvo que se empleen métodos
especiales. Usada sobre todo para guardar la BIOS dla computadora.
scanner: aparato capaz de digitalizar información; usualmente se refiere al que es
capaz de digitalizar imágenes, textos o fotos.
SIMM: tipo de conector para memoria RAM. Existe en versiones para
módulos de 30 y 72 contactos.
slave: en español “esclavo”, el nombre asignado al segundo de los dos
dispositivos de un canal IDE, en contraste al “master”, que es el primero.
slot: o ranura de expansión; cada uno de los conectores donde se enchufan (“pinchan”) las tarjetas de expansión. De forma alargada y longitud variable, según la tecnología a la que pertenezcan: ISA, EISA, VESA,
PCI, AGP...
59
socket: palabra inglesa que significa zócalo (generalmente el del microprocesador).
Software: los programas de ordenador, la lógica que permite realizar
tareas al hardware (la parte física).
USB: Universal Serial Bus, bus serie universal. Tipo de conector que
puede soportar hasta 126 periféricos externos, con un ancho de banda
a compartir de 1,5 MB/s, lo que lo hace especialmente indicado para
ratones, impresoras, joysticks o módems.
VGA: Video Graphics Array, o dispositivo Gráfico de Vídeo. Un tipo de
tarjeta gráfica capaz de obtener hasta 640x480 puntos en 16 colores
(en el modelo estándar original).
ZIF: Zero Insertion Force (socket), o zócalo de fuerza de inserción nula.
Conector de forma cuadrada en el que se instalan algunos tipos de microprocesador, caracterizado por emplear una palanquita que ayuda a
instalarlo sin ejercer presión (“Force”) sobre las patillas del chip, muy
delicadas.
ZIP: tipo de archivo comprimido. Muy utilizado, especialmente en InterNet, fue ideado por la empresa PKWARE.
60
Conclusiones
La arquitectura de un computador está constituida por el conjunto de
funcionalidades disponibles para cualquier persona que utiliza una computadora y en su mayoría las funcionalidades de una arquitectura se
pueden conseguir con diferentes organizaciones internas o estructuras,
diferenciándose unas de otras fundamentalmente en los parámetros de
rendimiento y el costo. Finalmente, la estructura de una computadora
se puede implementar con diferentes tecnologías, siendo nuevamente el
costo y el rendimiento los elementos diferenciales. Arquitectura, estructura y tecnología constituyen, pues, tres niveles de estudio del hardware
de un computador.
En este trabajo se abordó el estudio de la organización o estructura interna de un computador. Con la finalidad de otorgar un materia que se dividió en tres capítulos. En el primero realizamos una introducción general
a la estructura de computadores. En el segundo estudiamos la arquitectura del entorno de trabajo en el tercero se enfocó al mantenimiento.
Con este trabajo se otorga una base en el conocimiento del mantenimiento preventivo y correctivo del equipo de cómputo.
61
Recomendaciones
El mantenimiento preventivo consiste en crear un ambiente favorable
para el sistema y conservar limpias todas las partes que componen una
computadora. El mayor número de fallas que presentan los equipos es
por la acumulación de polvo en los componentes internos, ya que éste
actúa como aislante térmico.
El calor generado por los componentes no puede dispersarse adecuadamente porque es atrapado en la capa de polvo.
Las partículas de grasa y aceite que pueda contener el aire del ambiente
se mezclan con el polvo, creando una espesa capa aislante que refleja el
calor hacia los demás componentes, con lo cual se reduce la vida útil del
sistema en general.
Por otro lado, el polvo contiene elementos conductores que pueden generar cortocircuitos entre las trayectorias de los circuitos impresos y tarjetas de periféricos.
Si se quiere prolongar la vida útil del equipo y hacer que permanezca libre de reparaciones por muchos años se debe de realizar la limpieza con
frecuencia.
El presente trabajo contribuye en los conocimientos básicos para poder
realizar este tipo de mantenimiento.
Mantenimiento correctivo para PCs
Consiste en la reparación de alguno de los componentes de la computadora, puede ser una soldadura pequeña, el cambio total de una tarjeta
(sonido, video, SIMMS de memoria, entre otras), o el cambio total de algún dispositivo periférico como el ratón, teclado, monitor, etc. Resulta
62
mucho más barato cambiar algún dispositivo que el tratar de repararlo
pues muchas veces nos vemos limitados de tiempo y con sobre carga de
trabajo, además de que se necesitan aparatos especiales para probar algunos dispositivos.
Asimismo, para realizar el mantenimiento debe considerarse lo siguiente:
• En el ámbito operativo, la reconfiguración de la computadora y los
principales programas que utiliza.
• Revisión de los recursos del sistema, memoria, procesador y disco
duro.
• Optimización de la velocidad de desempeño de la computadora.
• Revisión de la instalación eléctrica (sólo para especialistas).
• Un completo reporte del mantenimiento realizado a cada equipo.
• Observaciones que puedan mejorar el ambiente de funcionamiento.
63
Bibliografía
Boyce, J. (1998). Conozca y actualice su PC. Guía ilustrada. Prentice Hall
Hispanoamericana SA.
Norton, P. (1994). Toda la PC. Prentice Hall Hispanoamericana SA.
Schuller, U. (1996). Ampliar y reparar su PC. AlfaOmega Grupo Editorial SA
de CV.
Durán, L. (2007). Ampliar, Configurar y Reparar Su PC. Alfaomega, Marcombo.
64
Descargar