Concepto de informática

Anuncio
Trabajo de informática
INFORMÁTICA
Concepto de informática
La informática es la ciencia que estudia los ordenadores. El concepto de informática viene
dado de la unión de dos palabras Información y automática. En inglés se habla de conceptos
tales como Computer Science, Electronic Data Processing, etc..
Procesamiento de la información
La concepción del humano como un procesador de información se basa en la analogía entre la
mente humana y el funcionamiento de una computadora. En otras palabras, se adoptan los
programas informáticos como metáfora del funcionamiento cognitivo humano.
Existen pues dos versiones de esta metáfora:
1. Versión fuerte: admite una equivalencia funcional de ambos sistemas.
2. Versión débil: se limita a aceptar el vocabulario de la informática sin llega a aceptar una
equivalencia.
Sistemas Informáticos: HARDWARE Y SOFTWARE
Un sistema informático es la síntesis de hardware y software. Un sistema informático típico
emplea un ordenador que usa dispositivos programables para almacenar, recuperar y procesar
datos.
HARDWARE: Se denomina hardware o soporte físico al conjunto de elementos materiales
que componen un computador. Hardware también son los componentes físicos de una
computadora tales como el disco duro, dispositivo de CD-Rom, disquetera, etc.. En dicho
conjunto se incluyen los dispositivos electrónicos y electromecánicos, circuitos, cables, tarjetas,
armarios o cajas, periféricos de todo tipo y otros elementos físicos.
El hardware se refiere a todos los componentes físicos (que se pueden tocar) de la
computadora: discos, unidades de disco, monitor, teclado, ratón, impresora, placas, chips y
demás periféricos.
Marta Martín Lobato
1
Trabajo de informática
SOFTWARE: Se denomina software (también programática, equipamiento lógico o soporte
lógico) a todos los componentes intangibles de un ordenador o computadora, es decir, al
conjunto de programas y procedimientos necesarios para hacer posible la realización de una
tarea específica, en contraposición a los componentes físicos del sistema (hardware). Esto
incluye aplicaciones informáticas tales como un procesador de textos, que permite al usuario
realizar una tarea, y software de sistema como un sistema operativo, que permite al resto de
programas funcionar adecuadamente, facilitando la interacción con los componentes físicos y
el resto de aplicaciones.
Codificación de la información
Código binario
El proceso de hacer corresponder a cada símbolo del alfabeto fuente el código se llama
codificación. Al proceso contrario Decodificación.
Propiedades
- Un código binario es ponderado cuando a cada dígito binario, le corresponde un peso según
su posición.
- Distancia del código es la distancia menor (diferencia de bits).
- Un código continuo es que dos palabras código consecutivas son adyacentes. Ej. Códigos
Gray o Johnson"
- Código cíclico aquel que además de ser continuo, la primera palabra y la última también lo
son.
- En informática y en electrónica se han empleado a lo largo del tiempo códigos binarios,
entre ellos BCD (con las variantes Natural, Aiken y Exceso 3) y Gray, códigos escritos
puramente en binario pero usando otras reglas.
Los códigos binarios que se utilizan en los sistemas digitales para almacenar información,
hacer operaciones aritméticas, reparar errores...
Los códigos binario pueden ser numéricos o alfanuméricos, dependiendo de si sólo codifican
números o caracteres (incluidos números), respectivamente.
Marta Martín Lobato
2
Trabajo de informática
El código binario de un programa, denominado código máquina es una codificación en
sistema binario que es el único que puede ser directamente ejecutado por un ordenador.
Sin embargo, para los seres humanos, programar en código máquina es molesto y propenso a
errores. Incluso con la abreviatura octal o hexadecimal, es fácil confundir una cifra con otra y
trabajoso acordarse del código de operación de cada una de las instrucciones de la máquina.
Por esa razón se inventaron los lenguajes simbólicos o nemónicos, que se llaman así porque
utilizan símbolos para representar o recordar las operaciones a realizar por cada instrucción y
las direcciones de memoria sobre las que actúa.
El código ASCII
El código ASCII (acrónimo inglés de American Standard Code for Information Interchange —
Código Estadounidense Estándar para el Intercambio de Información), pronunciado
generalmente [áski], es un código de caracteres basado en el alfabeto latino tal como se usa en
inglés moderno y en otras lenguas occidentales. Fue creado en 1963 por el Comité
Estadounidense de Estándares (ASA, conocido desde 1969 como el Instituto Estadounidense
de Estándares Nacionales, o ANSI) como una refundición o evolución de los conjuntos de
códigos utilizados entonces en telegrafía. Más tarde, en 1967, se incluyeron las minúsculas, y
se redefinieron algunos códigos de control para formar el código conocido como US-ASCII.
El código ASCII utiliza 7 bits para representar los caracteres, aunque inicialmente empleaba un
bit adicional (bit de paridad) que se usaba para detectar errores en la transmisión. A menudo se
llama incorrectamente ASCII a otros códigos de caracteres de 8 bits, como el estándar ISO8859-1 que es una extensión que utiliza 8 bits para proporcionar caracteres adicionales usados
en idiomas distintos al inglés, como el español.
ASCII fue publicado como estándar por primera vez en 1967 y fue actualizado por última vez
en 1986. En la actualidad define códigos para 33 caracteres no imprimibles, de los cuales la
mayoría son caracteres de control obsoletos que tienen efecto sobre como se procesa el texto,
más otros 95 caracteres imprimibles que les siguen en la numeración (empezando por el
carácter espacio).
Marta Martín Lobato
3
Trabajo de informática
Casi todos los sistemas informáticos actuales utilizan el código ASCII o una extensión
compatible para representar textos y para el control de dispositivos que manejan texto.
Unidades de medida en informática
Como sabemos, el sistema binario (binary) es un sistema de numeración que tiene por base el
2 Utiliza sólo dos guarismos: "0" (cero) y "1" (uno) para representar cualquier información.
Los ordenadores utilizan el sistema binario porque no conocen -no pueden interpretar- más
que dos estados: pasa la corriente (“on”, “abierto”, ó “1”) o no pasa la corriente (“off”,
“cerrado” ó, “0”). De esta forma un ordenador sí que pueden manejar y almacenar la
información.
El BIT y el BYTE
La unidad más pequeña de información representable en el ordenador se llama bit.
Bit significa dígito binario (del ingles "binari digit") y sólo puede tomar dos valores: el 0 y el 1.
El conjunto de cuatro bits se denomina cuarteto.
En los ordenadores, para transmitir la información se utilizan grupos de 8 bits. A cada grupo
de 8 bits se le llama byte. El byte es, por tanto la agrupación más utilizada en informática
Cada vez que se pulsa una tecla llega la unidad central una serie de impulsos eléctricos que
equivale a una combinación de 8 bits, es decir 1 byte.
Así la letra "A" llega a la Unidad Central como la combinación de 8 bits: 01000001
El tamaño que posee la memoria de un ordenador normalmente se mide en Kilobytes (KB=
210=1.024 bytes), aunque también se mide en Megabytes (MB= 220=1.048.576 bytes=1.024
kilobytes).
Un Megabyte puede almacenar más de un millón de caracteres.
Con el aumento de las capacidades de las memorias, también se emplea la medida del
Gibabyte (GB=230=1.073.741.824 bytes=1.024 Megabytes)
Marta Martín Lobato
4
Trabajo de informática
Unidad
Abrev.
Se habla de
bit
bits
Byte
bytes
1 kiloByte
KB
kas
1 MegaByte
MB
megas
1 Gigabyte
GB
gigas
1024 MB (1.073.741.824 bytes)
1 Terabyte
TB
teras
1024 GB (un billón de bytes)
1 Bit
1 Byte
Representa
unidad mínima
conjunto de 8 bits
1024 Bytes
1024 KB (1.048.576 bytes)
Marta Martín Lobato
5
Descargar