1 7-feb-07 MODULO INTRODUCCIÓN A LA INGENIERÍA

Anuncio
7-feb-07
MODULO
INTRODUCCIÓN A LA INGENIERÍA ELECTRÓNICA
MARCOS GONZÁLEZ PIMENTEL
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA UNAD
BOGOTA
2006
1
ÍNDICE
PRIMERA UNIDAD
FUNDAMENTACIÓN DE LA INGENIERÍA ELECTRÓNICA
CAPÍTULOS 0. INTRODUCCIÓN.
CAPÍTULOS 1 CONCEPTUALIZACIÓN
1.1
CIENCIA
1.1.1 Definición
1.1.2 Objetivos
1.1.3 Características básicas de la ciencia.
1.1.4 Ciencia y tecnología
1.1.5 Tipos de Ciencia
1.2
1.2.1
1.2.2
1.2.3
1.2.4
Ingeniería y Tecnología
Definición de Ingeniería
Funciones de la Ingenieria
Ramas de la Ingeniería
Definición de Tecnología
1.3
Ingeniería y Tecnología Electrónica
1.3.1 Definición
1.3.2 Objetivos
1.4
Sistema
1.4.1 Definición
1.4.2 Características y clases de los sistemas
CAPITULO 2 ANTECEDENTES
2.1
Historia de la Ingeniería
2.1.1. Historia de la Ingeniería en el mundo
2.1.2. Historia de la ingeniería en Colombia.
2.2
Historia de la electrónica
2.2.1. Historia de la electrónica en el mundo.
2.2.2. Historia de la electrónica en Colombia.
CAPITULO 3 ACTUALIDAD
2
3.1
Actualidad de la Ingeniería.
3.1.1 Actualidad de la Ingeniería el mundo.
3.1.2 Actualidad de la Ingeniería en Colombia.
3.2
Actualidad de la electrónica
3.2.1 La Electrónica en el mundo.
3.2.2 La Electrónica en Colombia
CAPITULO 4 APLICACIONES
4.1
Industriales.
4.1.1 Definición
4.1.2 Estado del arte.
4.2
Robótica.
4.2.1 Definición
4.2.2 Estado del arte.
4.3
Automatización.
4.3.1 Definición
4.3.2 Estado del arte.
4.4
Comunicaciones.
4.4.1 Definición.
4.4.2 Estado del arte
Electromedicina.
4.5
4.5.1 Definición
4.5.2 Estado del arte.
CAPITULO 5 DISEÑO
5.1
DEFINICIÓN DE ANÁLISIS Y SÍNTESIS.
5.2
MÉTODO DEL DISEÑO EN INGENIERÍA.
SEGUNDA UNIDAD
INGENIERÍA ELECTRÓNICA
CAPITULO 6 CONCEPTOS
6.1 CONCEPTOS FÍSICOS
6.1.1 Carga eléctrica
6.1. 2 Ley de Coulomb
6.1.3 Corriente
6.1.4 Voltaje
6.1.5 Ley de OHM
3
6.2. CONCEPTOS ELECTRÓNICOS
6.2.1 Circuito.
6.2.2 Reglas de Kirchhoff
6.2.3 Fuentes
6.2.4 Frecuencia (F)
6.2.5 Periodo (T)
6.2.6 Semiconductores
CAPITULO 7 ELEMENTOS
7.1
7.1.1
7.1.2
7.1.3
7.1.4
7.1.5
7.1.6
ELEMENTOS BÁSICOS
Resistencias
Diodos
Condensadores
Inductores
Transistores
Amplificadores
7.2
7.2.1
7.2.2
7.2.3
INTEGRADOS
Compuertas
Microelectrónica
Microprocesadores
7.3
7.3.1
7.3.2
7.3.4
SISTEMAS EMBEBIDOS
FPGA
FPAA
Convertidores A/D
7.4
7.4.1
7.4.2
7.4.3
OPTOELECTRÓNICA
LED
Fotodetectores
Fibra Óptica
4
CAPITULO 0.
INTRODUCCIÓN
El curso de Introducción a la Ingeniería de Electrónica, es de tipo teórico y
corresponde al campo de formación profesional básica de los programas de
Ingeniería Electrónica y Tecnología en Electrónica, su metodología es educación a
distancia. Corresponde a dos (2) créditos académicos los cuales comprenden:
Estudio y discusión de algunos temas relacionados con la función del ingeniero y
su perfil profesional.
Estudio de los conceptos básicos de la ingeniería Electrónica.
También se aré un acompañamiento en tutorías desarrolladas en pequeños
grupos de colaboración y la tutoría en grupo de curso, el cual sirve de apoyo al
estudiante para potenciar el aprendizaje autónomo y su formación en el campo de
aplicación de la temática a desarrollar.
El tutor juega el papel de acompañante en el proceso de aprendizaje, no sólo
imparte conocimientos, sino que brinda orientación en la selección y aplicación de
estrategias propias del modelo de educación a distancia. Por ello el desarrollo del
curso académico contempla espacios de reflexión en los que el tutor valora al
estudiante como un conjunto de pensamientos, conocimientos, habilidades y
experiencias y permite que aplique los conceptos adquiridos, en la solución de
problemas, estimulando al estudiante a que vea su aprendizaje por procesos y no
por resultados.
Este curso está compuesto por dos unidades didácticas a saber:
Unidad 1. Fundamentos de Ingeniería Electrónica: Aquí se establecen los
conceptos de Ciencia, Ingeniería, tecnología y en especial Ingeniería Electrónica.
Se establece un panorama general de la evolución, aplicación y proyección de la
ingeniería Electrónica como función principal del Ingeniero, el diseño de
soluciones y la investigación aplicada.
Se hace una reseña histórica y luego se entra a discutir algunas aplicaciones
concretas de la Ingeniería Electrónica.
5
El capítulo V está dedicado a una de las principales funciones de la Ingeniería
que es el Diseño. Comienza por definir Análisis y Síntesis dentro del contexto de la
ingeniería, luego habla del modelado, sus herramientas y las motivaciones del
Diseño. Por ultimo da una introducción a algunos procedimientos que se siguen
dentro del diseño.
Unidad 2. Ingeniería Electrónica. En esta Unidad se dan conceptos básicos que se
manejan en Ingeniería Electrónica, esto permite que el estudiante se forme una
idea global de la Ingeniería y le permita ubicar los diferentes temas que vera
durante el transcurso de su carrera.
El curso es de carácter teórico y su desarrollo se hará mediante el estudio de
artículos y modulo, se desarrollaran algunas tareas en grupo que faciliten la
discusión, de temas específicos, entre los alumnos, de tal forma que se estimulen
las competencias del estudiante y se potencien sus habilidades orientadas
básicamente al análisis y solución de problemas.
Con éste curso académico el estudiante tiene la posibilidad de conocer e
interpretar el desarrollo histórico de la Ingeniería Electrónica, los objetivos,
funciones e interrelaciones de ésta disciplina con otros campos del saber;
comenzar a familiarizarse con los conceptos generales de la Ingeniería
Electrónica, sus dispositivos, aplicaciones y herramientas.
6
PRIMERA UNIDAD DIDÁCTICA
FUNDAMENTACIÓN DE LA INGENIERÍA ELECTRÓNICA
CAPÍTULO 1. CONCEPTUALIZACIÓN
1.1
Ciencia
La definición de ciencia es un concepto amplio y se podría dar de diversas formas,
dependiendo de la disciplina desde la cual se trabaja. La siguiente es la definición
que da la Real Academia Española RAE.
1.1.1 Definición1
ciencia. (Del lat. scientĭa).
1. f. Conjunto de conocimientos obtenidos mediante la observación y el
razonamiento, sistemáticamente estructurados y de los que se deducen principios
y leyes generales.
2. f. Saber o erudición. Tener mucha, o poca, ciencia. Ser un pozo de ciencia.
Hombre de ciencia y virtud
.
3. f. Habilidad, maestría, conjunto de conocimientos en cualquier cosa. La ciencia
del caco, del palaciego, del hombre vividor.
4. f. pl. Conjunto de conocimientos relativos a las ciencias exactas, fisicoquímicas
y naturales. Facultad de Ciencias, a diferencia de Facultad de Letras.
~ ficción.
1. f. Género de obras literarias o cinematográficas, cuyo contenido se basa en
hipotéticos logros científicos y técnicos del futuro.
~ pura.
1. f. Estudio de los fenómenos naturales y otros aspectos del saber por sí mismos,
sin tener en cuenta sus aplicaciones.
~s exactas.
1. f. pl. matemáticas.
~s humanas.
1. f. pl. Las que, como la psicología, antropología, sociología, historia, filosofía,
etc., se ocupan de aspectos del hombre no estudiados en las ciencias naturales.
~s naturales.
1
REAL ACADEMIA ESPAÑOLA, Diccionario de la lengua española, marzo de 2006.
http://www.rae.es.
7
1. f. pl. Las que tienen por objeto el estudio de la naturaleza, como la geología, la
botánica, la zoología, etc. A veces se incluyen la física, la química, etc.
~s ocultas.
1. f. pl. Conocimientos y prácticas misteriosos, como la magia, la alquimia, la
astrología, etc., que, desde la antigüedad, pretenden penetrar y dominar los
secretos de la naturaleza.
Ciencias humanas.
La Ciencia2 es un significativo elemento de la cultura, que le ha permitido al
hombre diferenciarse de los animales, que no producen cultura. El hombre
gracias a las mediciones de la misma ciencia, ha transformado el mundo, lo ha
explicado y lo ha comprendido partiendo de la variedad de fenómenos y
comprendiendo las leyes que lo rigen. El hombre no ha podido deslindar la
realidad y el conocimiento porque el conocimiento ha contribuido a modificar esa
realidad, al mismo tiempo, la realidad actúa sobre el sujeto modificando el
conocimiento. Este acercamiento al concepto de ciencia la considera como una
forma de conocimiento humano. El conocimiento científico, no es la única forma
de acercarse a la realidad y no agota la misma realidad. Esta es compleja y
trasciende el conocimiento científico; no la podemos reducir simplemente a lo
racional o a lo experimental, va más allá; no se agota con lo demostrable y lo
cuantificable. La realidad es también trascendente y por ello va más allá de lo
científico. Algunos pretenden aceptar únicamente, la realidad que percibe la
ciencia negando su trascendencia y queriendo agotarla en el conocimiento
científico.
1.1.2. Objetivos
La ciencia también se define, a partir de su objetivo, como la búsqueda del
conocimiento de la realidad o como el conocimiento racional, sistemático, exacto y
comprobable de la realidad.
La ciencia experimenta, descubre, observa, mide, crea teorías que explican el
cómo y por qué de las cosas; elabora técnicas y herramientas para su observación
y medición; hace hipótesis y cuestiona la naturaleza y sus fenómenos; crea
conjeturas, discute o rechaza; separa lo verdadero de lo falso, diferencia lo que
tiene sentido de lo que no lo tiene; nos dice como debemos llegar a donde
queremos llegar y lo que queremos hacer.
1.1.3. Características básicas de la ciencia.
Tomando como punto de partida a Mario Bunge; las características principales se
pueden definir así:
2
FLOREZ Carlos, GALINDO Gladis, Ciencia y Conocimiento, Usta, Santafé de Bogotá. 1971. p 251.
8
Facticidad: Significa que la ciencia parte de los hechos, tratando de ser
independiente a cualquier tipo de valoración o caracterización emocional o
sentimental. La estadística le sirva a la ciencia como un instrumento que le
permite sistematizar y cuantificar estos hechos observables. A las teorías que se
forman a partir de los hechos que han sido confirmados, se les da el nombre de
datos empíricos.
Análisis: La ciencia es analítica, porque los problemas que trata de resolver, son
descompuestos en sus elementos para entender y descubrir la forma como se
relacionan estos con el fenómeno que se esta investigando.
Claridad y precisión: La ciencia se diferencia del conocimiento vulgar o corriente
del hombre, el cual, por lo general, es vago e inexacto. El conocimiento científico
por el contrario, exigen cierta tranquilidad y reposo para abordar los problemas y
para poder penetrar en sus leyes y mecanismos internos. La ciencia, en su
proceso investigativo, debe ante todo precisar y clarificar su problema. El
planteamiento del problema con claridad y precisión asegura, un alto porcentaje, la
validez y orientación de la investigación científica, el marco teórico ayuda a la
clarificación y exactitud de la investigación, pues la teoría como marco de
referencia, permitirá iluminar el problema para entenderlo y clarificarlo.
Verificabilidad: La ciencia no se puede contentar exclusivamente en la
coherencia lógica de sus afirmaciones; la observación de los fenómenos tampoco
es suficiente, por más precisión y utilización de instrumentos perfeccionados que
tenga. Es necesario introducir la experimentación para verificar en la realidad sus
teorías. La verificabilidad del conocimiento científico fue uno de los aportes que
hicieron los griegos a este, especialmente la escuela de Pitágoras. Esta
verificación o comprobación permite crear situaciones controladas en donde se
pueden cambiar las variables o factores que intervienen en los fenómenos para
conocer mejor sus interrelaciones.
Sistematicidad: La ciencia es sistemática, organizada en su búsqueda y en sus
resultados.
Se preocupa por construir sistemas de ideas organizados
racionalmente, formando una estructura a la que integra conocimientos nuevos a
los ya existentes; así las leyes y teorías se van ampliando una teoría más general.
La sistematicidad implica un todo donde sus elementos se encuentran
interrelacionados entre sí con una finalidad o un objetivo.
Generalidad: Desde épocas primitivas el conocimiento científico ha tenido un
carácter general. No puede existir ciencia de lo particular, lo afirman los filósofos
griegos, porque no hay interés por el objeto en particular, por el hecho en si
mismo, sino por lo que puede representar para la generalidad de los fenómenos u
objetos. El estudio de un caso particular tiene sentido para el científico, en la
medida que le permite relacionarlo con una ley que es general, es decir un caso
9
de una ley y la ley se convierte en una expresión racional de la generalización de
los casos particulares.
Falibilidad: La ciencia es uno de los pocos sistemas creados por el hombre que
parte del principio de su posibilidad de equivocarse, de cometer errores. Por
principio la ciencia es refutable, es falible. Siempre que exista la posibilidad de
encontrar nuevos hechos o hipótesis que generan una mejor explicación de los
fenómenos se hace alusión a la falibilidad de la ciencia.
Explicabilidad Y Productibilidad: La ciencia le da al hombre explicaciones
coherentes y sistemáticas acerca del modo de comportamiento de la naturaleza y
de la sociedad. Así no solo describe los fenómenos sino que los explica y señala
la forma como se relaciona los elementos del fenómeno. La ciencia busca su
utilización en el mejoramiento de la vida y por ello ha sido predictiva anticipándose
a los hechos para manejarlos.
Utilidad: La característica que reviste mayor importancia para la humanidad es la
utilidad. La ciencia otorga las herramientas y los instrumentos para ser utilizados
para la destrucción o realización del hombre. Aquí una cantidad de discursos en
el mundo actual que enmarcan una orientación de la tecnología, aplicación de la
ciencia a la solución de necesidades concretas del hombre, claro esta enmarca en
una gran responsabilidad ante la historia de la humanidad. Todo depende de la
forma como es utilizada la ciencia en beneficio o perjuicio de la humanidad. Solo
entendiendo una real libertad se podrá comprender la acción de la ciencia para el
desarrollo de la humanidad.
1.1.4 Ciencia y tecnología
En el mundo actual existe una estrecha interrelación entre ciencia, tecnología y
sociedad.
La Ciencia y la tecnología son particularmente importantes para el desarrollo de
los mismos pueblos. La ciencia y la tecnología han suscitado cambios en el modo
de vida en el bienestar y en la misma manera de comportarse las personas que
son aspectos básicos en el desarrollo de la sociedad.
Con el propósito de realizar tanto la relación, como la diferenciación entre los
conceptos de TÉCNICA CIENCIA, TECNOLOGÍA; se parte del principio en el que
concuerdan en dos aspectos comunes como lo son: hacer referencia a algo
objetivo, existente y de otro lado hacen relación a una actividad humana y, en ese
sentido son algo subjetivo, cambiante por naturaleza, en constante evolución
social. Pero al igual se da la diferenciación se enmarca dentro los objetivos que
persiguen: La técnica y la tecnología buscan la forma de hacer las cosas para la
satisfacción de las necesidades humanas y la ciencia pretende entender la
naturaleza y la sociedad. La tecnología y la técnica pretenden producir bienes y
ofrecer servicios.
10
Sintetizando, podemos afirmar que la Ciencia hace referencia al SABER, la
técnica a la HABILIDAD para hacer algo y esto se ha generado a través de la
misma historia del hombre, desde sus inicios, hasta la misma revolución científica
técnica que ha desarrollado:3
LOS INICIOS: El hombre comenzó a dominar técnicas como el uso del fuego, de
la rueda, domesticar animales, hacer herramientas, fundir, cultivar, construir y a
tener conocimientos del calendario, de las matemáticas, etc.
EL PERÍODO HELENICO: Comienza la búsqueda del conocimiento por el
conocimiento mismo, se quieren saber los rasgos esenciales de las cosas, sus
causas, las leyes que las rigen. La “Ciencia” era actividad del hombre rico e
instruido.
LA EDAD MEDIA: El conocer se supedita al creer, a la fe. Se limita la creatividad
del hombre. Pero se avanza en el dominio de las artesanías.
LA REVOLUCIÓN CIENTÍFICA: Se regresa al estudio directo de la naturaleza.
Surge el método experimental. Época de grandes teorías, descubrimiento de
leyes que rigen a la realidad. La actividad científica comienza a institucionalizarse.
LA REVOLUCIÓN INDUSTRIAL: La producción a gran escala estimula el
desarrollo de técnicas avanzadas, comienza el uso de máquinas, como la de
vapor, para aplicarlas a la producción, al transporte, etc. Es la época de la
revolución técnica.
LA REVOLUCIÓN CIENTÍFICA – TÉCNICA: Gran desarrollo de las ciencias
particulares. Sus principios se aplican a la industria. Estrecha relación entre
ciencia, tecnología y desarrollo. La ciencia se convierte en un importante factor de
desarrollo de las fuerzas productivas.
1.1.5 Tipos de ciencia
Existen diversas formas de acercarse a la ciencia, la básica y la aplicada y ambas
distintas de la tecnología y entre las dos diferenciadas por el grado de
especificidad. La ciencia básica expresa correlaciones que son válidas para la
totalidad de un universo de discurso y la ciencia aplicada que es más específica se
restringe de la aplicabilidad de las correlaciones. Cuando las correlaciones de la
ciencia aplicada provienen por vía deductiva de leyes de ciencia básica y de datos,
se dice que la ciencia aplicada corresponde a una ciencia teórica.4
3
4
FACUNDO D, H Ángel, Ciencia tecnología e investigación, ICFES, Bogotá... p 18.
HESSEN, J; Teoría Del conocimiento, Losada, Bs As; 1970. Pg 345
11
CIENCIA BÁSICA TEÓRICA: Es una construcción conceptual que, luego de la
materialización de la ciencia moderna, puede expresarse por medio de diversas
ecuaciones simples.
CIENCIA APLICADA TEÓRICA: Se distingue de la básica, porque sus
correlaciones son de más corto alcance. También porque ésta restricción, lleva a
una aplicabilidad mas inmediata en un ámbito específico y real. Se expresa en
ecuaciones, donde intervienen parámetros y son características de la denominada
ciencia aplicada. Cuando la correlación proviene de la ciencia básica y se restringe
con la realidad de los datos, a la ciencia que la aplica se le llama ciencia aplicada
teórica.
CIENCIA APLICADA EMPÍRICA: Sus correlaciones son descripciones de
realidades observadas, las cuales se consideran científicas por su modo de
obtención, procesamiento y presentación; por su comprobación y necesidad de
refutación y por la vía de los conceptos que en ella intervienen, con alguna porción
de ciencia, básica teórica. Las correlaciones se expresan en forma matemática,
pero no pueden deducirse de otras leyes de la ciencia básica, además en sentido
estricto no son leyes, solo son expresiones matemáticas que describen hechos
observados.
1.2
INGENIERÍA Y TECNOLOGÍA
1.2.1 Definición de Ingeniería5
1. f. Estudio y aplicación, por especialistas, de las diversas ramas de la
tecnología.
2. f. Actividad profesional del ingeniero.
Otra definicion
Si retomamos el concepto de ingeniería orientada al campo ocupacional, se
concreta en la aplicación del conocimiento de las ciencias naturales, mediada por
los métodos tecnológicos y las destrezas técnicas, para:
Aprovechar
adecuadamente los recursos energéticos; transformar las materias y los
materiales; proteger y preservar el ambiente; producir, reproducir y manejar
información; gestionar, planear y organizar los talentos humanos y los recursos
financieros para el beneficio de la humanidad; mediante el diseño de soluciones
creativas y la utilización de las herramientas disponibles.
1.2.2. Funciones de la ingeniería.
El trabajo del ingeniero le ha exigido especializarse por ramas y a la vez orientarse
hacia funciones encaminadas a:6
5
REAL ACADEMIA ESPAÑOLA, Diccionario de la lengua española, Enero de 2006.
http://www.rae.es.
12
INVESTIGACIÓN; reconociendo y definiendo las necesidades reales. Búsqueda
experimental del conocimiento. Suministro e información ingenieril a las otras
funciones. Principios científicos y datos sobre los eventos ingenieriles recién
descubiertos.
DESARROLLO; Aplicación tecnológico del conocimiento básico de la ingeniería.
Determinación de problemas de aplicaciones y sus soluciones.
DISEÑO: Reconocimiento y definición de necesidades tecnológicas y
establecimientos de alternativas de solución. Selección de alternativas y
presentación de la solución propuesta.
CONSTRUCCIÓN Y PRODUCCIÓN; Materialización y realización física de los
diseños control de calidad y análisis de costos.
OPERACIÓN Y ENSAYO; planeación, selección, instalación, y ensayo de plantas,
sistemas y máquinas. Determinación de la duración de máquinas y equipos de su
rendimiento.
MANTENIMIENTO Y SERVICIO; mantenimiento y reparación de las plantas,
sistemas, máquinas y productos.
MERCADEO; del
posicionamiento.
producto,
empaque
ADMINISTRACIÓN; decisiones finales en el
parcialmente accesoria.
y
almacenamiento,
publicidad,
trabajo final de la ingeniería y
EDUCACIÓN; enseñanza y publicaciones generales y especializadas.
1.2.3. Ramas e la ingeniería
Los cuatro grandes campos de la ingeniería son la civil, mecánica, la eléctrica y la
química. A partir de estas se han desarrollado otras ramas de gran interés en el
desarrollo de la misma ciencia y la tecnología. 7
1.2.3.1
Ingeniería Civil: Es la rama más antigua de la profesión del ingeniero,
después de la militar.
El ingeniero civil agrupa su trabajo en
construcción, ambiental, geotécnica, recursos hídricos, topografía,
estructural, y transporte.
6
DIXON, JOHR; Diseño en Ingeniería, inventiva, análisis y toma decisiones. Limusa. Wiley. México. 1970.
HOYOS VASQUEZ, Guillermo; Elementos para la comprensión de la Ciencia y la Tecnología. Colombia al
despertar de la modernidad; Ediciones Foro. Bogotá 1994. Pg 23
7
13
Los ingenieros civiles realizan estudio de factibilidad, investigaciones de
campo y diseño, las que se ejecutan durante la construcción y las que
realizan después de la construcción como el mantenimiento e
investigación.
1.2.3.2
Ingeniería Mecánica: Los ingenieros mecánicos se relacionan con la
mecánica de la energía, la manufacturera y la del diseño. Sus funciones
incluyen el diseño y especificación de componentes o sistemas enteros,
el diseño y producción de los procesos de manufacturas, la operación y
mantenimiento de plantas, la consultoría, la investigación y desarrollo
junto a la administración. Aplica el método ingenieril, leyes y principios,
desarrollados por científicos, especialmente los físicos.
1.2.3.3
Ingeniería Eléctrica: La ingeniería eléctrica maneja fundamentalmente
la generación, transmisión y distribución de energía, fabricación de
equipos eléctricos, e instalaciones y mantenimiento de plantas
industriales, empresas contratistas de prestación de servicios
relacionados con los montajes, redes e instalaciones eléctricas en
general.
El Ingeniero electricista posee conocimientos técnicos,
habilidades, destrezas y valores para encarar el diseño, construcción y
administración, operación de procesos, productos, equipos y materiales
en el campo eléctrico.
Las funciones típicas de los ingenieros electricistas incluyen el diseño
de nuevos productos, la prescripción de requerimientos de desempeño,
el desarrollo de esquemas de mantenimiento. Resuelven problemas
operativos, estiman el tiempo y el costo de los proyectos de ingeniería
eléctrica y llevan a cabo la consultoría, la investigación y el desarrollo.
1.2.3.4
Ingeniería Química: Rama de la ingeniería que estudia la aplicación, el
desarrollo y la operación de procesos de manufactura en los cuales,
mediante cambios en la composición y en las características físicas de
los materiales se crean bienes, productos y servicios industriales y
comerciales.
Los ingenieros químicos, tienen contactos con procesos químicos y
biológicos que toman las materias primas en productos valiosos, con
perdida de material y consumo de energía mínimo. Las habilidades
necesarias incluyen todos los aspectos del diseño, ensayo,
escalamiento, operación, control y optimización.
14
Los ingenieros químicos tienen que ver con el diseño, y desarrollo de los
productos, como alimentos, drogas, plásticos, empaques, vidrios,
productos químicos en general.
1.2.3.5
Ingeniería Agrícola: Es la rama de La ingeniería que se orienta a la
planeación, gestión, diseño, ejecución y supervisión de proyectos de
ingeniería relacionados con el manejo y aprovechamiento racional de los
recursos hídricos, el planeamiento y construcción de obras de
infraestructura y la mecanización agrícola y agroindustrial. Un ingeniero
agrícola esta capacitado para dar solución a los problemas de diseño y
desarrollo de las infraestructuras agropecuarias, mediante la aplicación
de los conocimientos de la ingeniería, del suelo, del agua, de la planta, y
de los problemas ecológicos y socioeconómicos.
Sus áreas de trabajo están en la mecanización agrícola, el control del
ambiente, y la administración de empresas y proyectos agropecuarios.
1.2.3.6
Ingeniería Electrónica: La ingeniería electrónica abarca un amplio
espectro de tecnologías, que tienen que ver con los movimientos de los
electrones y su control para fines útiles al hombre. Su campo de acción
son los sistemas eléctricos con el énfasis en el manejo de señales
eléctricas, acústicas, ópticas, y electromagnéticas usadas en funciones
de medición, control, comunicaciones e informática.
Los ingenieros electrónicos modelan, diseñan, adaptan, mantienen,
implantan y gestionan equipos y sistemas electrónicos aplicados en
áreas
como
las
telecomunicaciones,
la
bioingeniería,
la
microelectrónica, las tecnologías de la información y la automatización.
1.2.3.7
Ingeniería Industrial: La ingeniería Industrial aplica a la planificación y
gestión de la producción la ingeniería de plantas industriales, la gestión
de la calidad, el establecimiento de objetivos, y esta muy ligada a la
gestión en cuanto realiza estudio de organización y métodos; planea,
programa y controla la producción, supervisa y controla la calidad,
asesora y realiza consultoría, investiga operaciones; participa en la
dirección técnica y administrativa y financiera de las empresas.
1.2.3.8
Ingeniería de Sistemas: Trabaja con los simbólico apoyados en
máquinas especiales que son los computadores, para ello adapta,
mantiene, implementa y administra equipos y sistemas de:
comunicación,
información,
cómputo,
simulación,
control
y
administración. Mediante el análisis del sistema, el ingeniero de
sistemas identifica las necesidades del usuario, determina la viabilidad
15
técnica y económica y asigna las funciones y el rendimiento al software,
al hardware a la gente y a la base de datos así como los elementos
claves del sistema.
Las funciones del ingeniero de sistemas comprende el análisis de las
estructuras de información en una organización; la realización de
investigaciones, desarrollos y aplicaciones a los nuevos adelantos
tecnológicos en las áreas de computación y sistemas con el fin de
alcanzar su adecuada adaptación a nuestro medio desarrolla software
tantea nivel de programas de sistemas como a nivel de programas de
aplicaciones; evalúa desde el punto de vista técnico y económico,
equipos de computación electrónicos y sistemas de procesamiento de
datos.
1.2.3.9
Ingeniería Metalúrgica y de Materiales: La metalurgia es el arte y la
ciencia de obtener los metales a partir de sus minerales y aplicarlos a
las necesidades del hombre. El ingeniero metalúrgico interviene en el
proceso de los productos de la minería y con la ayuda de la electricidad
, la química y la mecánica obtienen metales y aleaciones como materia
prima para lograr todo tipo de estructuras metálicas; equipos,
mecanismos y vehículos para satisfacer necesidades humanas.
Proyecta, diseña, dirige, y realiza labores que implican la obtención de
materiales o su transformación, realiza investigaciones para
perfeccionar los métodos de tratamiento de minerales, de obtención de
metales.
1.2.3.10 Ingeniería Ambiental: Busca el desarrollo sostenible, no solo con el
cuidado y mejoramiento del ambiente, sino también el crecimiento social
y económico de las comunidades.
El ingeniero ambiental se
desempeña en empresas de servicios públicos, institutos de
investigación, comunidades, universidades, monitoreando el manejo de
los recursos la calidad de los mismos, investigando y presentando
propuestas de desarrollo sostenible.
1.2.3.11 Ingeniería Geológica: Aplica los conocimientos de la geología al diseño
y construcción de obras ingenieriles, a la explotación de los recursos
minerales, y al investigación de daños causados por desastres naturales
o de origen geológicos inducidos por el hombre.
Se dedica
fundamentalmente a la explotación de investigación de la corteza
terrestre, con el objetivo de estudiar los componentes que lo conforman
para buscar materias extractivas o seleccionar lugares para construir
carreteras o vías férreas, obras de embalse, canales de regadío,
puertos, túneles, y cualquier otro tipo de construcción.
16
1.2.3.12 Ingeniería de Alimentos: Rama especializada en la producción de
alimentos, desde la obtención de materias primas, su transformación
física, química y Biológicas, mediante procesos industriales hasta su
embasado y distribución. Para ello toma los conceptos de la física y la
química, y los aplica junto con los principios de la ingeniería del diseño,
desarrollo de operaciones de equipos y procesos para el manejo,
transformación, conservación y aprovechamiento integral de las
materias primas, alimentarías, bajo parámetros de calidad, desde el
momento de su producción primaria hasta su consumo. Esto se realiza
sin agotar la base de los recursos naturales ni deteriorar el medio
ambiente y atendiendo a los aspectos de calidad, seguridad, higiene y
saneamiento.
Los aspectos teóricos y prácticos de la industria alimentaría, desde la
calidad de las materias primas hasta el uso final por los consumidores
son el principal campo de estudio y práctica de la ingeniería de
alimentos. Aplica los principios de la ingeniería de procesos y de la
química a los alimentos.
1.2.3.13 Ingeniería de Minas: Es la profesión en la cual los conocimientos de la
ciencias naturales, como la química, la física, la matemática, la geología,
se aplican con buen criterio y tecnología al desarrollo del medio, y
extraer de la naturaleza económicamente con responsabilidad, social
basada en un ética profesional, los minerales para el beneficio de la
humanidad.
El ingeniero de minas se encarga de la localización de los recursos
mineros, organiza y dirige los trabajos para extraer de la tierra minerales
sólidos, metálicos o no y el tratamiento para su utilización directa o su
transformación. Realiza estudios geológicos y topográficos, recomienda
mejores métodos de explotación.
1.2.3.14 Ingeniería de Telecomunicaciones: Dos áreas de la ingeniería han
ejercido un impacto contundente en las telecomunicaciones.
La
electrónica o microelectrónica y la computación, esto ha llevado a la
variedad y tamaño de los sistemas actuales de telecomunicaciones
como la telefonía fija y móvil, la radio, la televisión, el radar, las redes de
computadores, los sistemas satelitales, etc. y ha hecho imperativo el
surgimiento de una nueva ingeniería, desprendida normalmente de la
ingeniería electrónica y dedicada a esta área de trabajo, vale decir, la
ingeniería de la telecomunicaciones.
Sectores de trabajo de la Ingeniería de telecomunicaciones:
- Sistemas de telecomunicaciones.
- Telefonía.
- Comunicación Móvil.
17
-
Comunicaciones satelitales.
Radio y televisión.
Telemática y redes de computadoras.
Tecnología de Internet.
Sistemas de telemetría.
Sistemas de control.
1.2.4 Definición de Tecnología8
2. f. Conjunto de teorías y de técnicas que permiten el aprovechamiento práctico
del conocimiento científico.
3. f. Tratado de los términos técnicos.
4. f. Lenguaje propio de una ciencia o de un arte.
5. f. Conjunto de los instrumentos y procedimientos industriales de un
determinado sector o producto.
1.3
Ingeniería y Tecnología Electrónica
1.3.1 Definición9
Electrónico, ca. (De electrón).
1. adj. Fís. Perteneciente o relativo al electrón.
2. adj. Perteneciente o relativo a la electrónica.
3. m. y f. Especialista en electrónica.
4. f. Fís. y Tecnol. Estudio y aplicación del comportamiento de los electrones en
diversos medios, como el vacío, los gases y los semiconductores, sometidos a la
acción de campos eléctricos y magnéticos.
5. f. Aplicación de estos fenómenos.
buzón electrónico, cañón electrónico, cerebro electrónico, computadora
electrónica, computador electrónico, correo electrónico, guerra electrónica,
microfotografía electrónica, microscopio electrónico, pantalla electrónica,
tarjeta electrónica
1.3.2 Objetivos
Ningún aspecto de la Vida Humana ha podido sustraerse a las aplicaciones de la
electrónica.
La producción en las granjas, las ventas al por menor, la
manufactura, las comunicaciones, el transporte, las labores domésticas, el
8
REAL ACADEMIA ESPAÑOLA, Diccionario de la lengua española, Enero de 2006.
http://www.rae.es.
9
REAL ACADEMIA ESPAÑOLA, Diccionario de la lengua española, marzo de 2006.
http://www.rae.es.
18
entretenimiento, en fin todas las actividades modernas se han desarrollado
significativamente mediante la incorporación de electrónica.
La gran importancia que ha tomado la electrónica radica en la gran incidencia que
tienen sus productos finales en la vida moderna, en el incremento continuo de la
actividad económica que genera su creciente demanda de bienes y servicios y en
la extraordinaria dinámica que le es característica hasta el punto que se le
considera sinónimo de cambio tecnológico.
En el momento actual, la producción electrónica es el sector industrial más grande
del mundo. En los Estados Unidos la industria electrónica superó a las industrias
del automóvil, aeroespacial y del petróleo juntas tanto en inversión como en
empleo. A nivel mundial la producción electrónica emplea 10.5 millones de
personas actualmente y se estima que en la próxima década esta cifra se doblará,
lo cual significa un crecimiento impresionante no comparable al de otros sectores
económicos
Entre 1982 y 1987 la producción electrónica mundial tuvo un crecimiento anual
promedio de 11.8% mientras el PIB crecía en promedio el 3,2%. El reducido
crecimiento que mostró el PIB mundial entre 1987 y 1992 (1.7%) deprimió el
crecimiento anual promedio de la industria electrónica, la cual solo alcanzó una
tasa del 5.1%. Durante el período 1992 - 1997 hubo una recuperación que
alcanzó un crecimiento promedio del 6.4% con un crecimiento del PIB del 3.6%
anual. Para el período 1997 - 2002 los estimativos indicaron que la industria
electrónica creció a tasas del orden de 8.5% con PIB del 4.1%.2
Las cifras anteriores son bastante elocuentes. Durante década y media la
industria electrónica mundial ha tenido un crecimiento anual a tasas iguales o
superiores al doble del crecimiento del PIB del mundo. Y lo que es más
importante, los expertos afirman que el mercado mundial de la electrónica apenas
está en su infancia.
Corrobora esta afirmación el desarrollo que tendrá una de las áreas más
importantes de la tecnología electrónica, el mercado mundial de los computadores.
En el año 1991 el número de computadores por persona era de 0.02. Para el año
2001 esta cifra era de 0.07, y una década después se espera que llegue a 0.18
computadores por persona. Para alcanzar estas metas se tendrán que fabricar
1000 millones de computadores en los próximos 20 años, sin contar los que se
requerirán para reemplazar aquellos que van quedando obsoletos.
Y este probablemente no es el campo más dinámico de la electrónica, pues lo
supera en actividad y por tanto en inversiones el área de las telecomunicaciones
2
AGARWALA GOKUL, “The World Wide Electronics Industry Status & Opportunities for Latin
America”, California, 1995.
19
cuya expansión se estima que será vertiginosa en las próximas décadas. En este
campo el crecimiento y expansión de las redes mundiales ha sido permanente.
Durante 1994 los suscriptores de líneas telefónicas aumentaron el 21.4%,
pasando de 31.3 a 38.0 millones; los suscriptores de teléfonos móviles se
incrementaron en 74.5%, al pasar de 11.0 a 19.2 millones; los usuarios de TV por
cable crecieron 6% aproximadamente, al pasar de 13.7 a 14.5 millones; y los
suscriptores de Internet aumentaron el 126.6% al pasar de 6.0 a 13.9 millones.
El crecimiento de la producción electrónica mundial será vertiginoso en las
próximas décadas. En el año 1992 la producción de bienes y servicios de base
electrónica ascendía a la suma de 800 billones de dólares. Se estima que una
década después, en el año 2002 esta producción alcanzó los 1700 billones de
dólares y que en el año 2012, es decir una década más tarde esta producción
volverá a duplicarse, ascendiendo a 3600 billones de dólares.
Este crecimiento sin precedentes no da cuenta de la desigual distribución por
regiones.
En la Tabla No. 1 se presenta la distribución regional a partir del
número de empresas localizadas en cada una y del número de empleos
generados. Adicionalmente se presenta la productividad por empleado que es un
índice del grado de eficiencia y avance de la producción de cada región del
mundo.
Puede verse en la tabla, que la mayor concentración de empresas y empleados se
encuentra en los países industrializados, destacándose el Japón con una tercera
parte del total de cerca de cien mil empresas. Le siguen Estados Unidos y
Canadá que en conjunto cuentan con la quinta parte de las empresas. Luego se
encuentra Europa Occidental con algo más de la sexta parte, mientras que los
famosos cuatro tigres asiáticos llegan apenas a algo menos de la décima parte del
total de las empresas.
Tabla No 1 Motor de desarrollo económico y social en todo el mundo
DISTRIBUCIÓN REGIONAL
Región
No. De Empresas Empleo
USA/Canadá
W. Europa
E. Europa
Japón
Cuatro Tigres
R.Asia /Aust.
M.E./Africa
América Latina
Total
21.632
17.766
2.010
35.355
9.245
6.200
500
6.300
99.058
2.126.000
1.633.000
1.172.000
1.940.000
757.300
2.227.000
180.000
492.000
10.527.700
Productividad
(Dólares)
124.900
116.500
10.750
95.500
90.925
28.000
33.000
55.000
76.375
20
Fuente: AGARWALA GOKUL “The World Wide Electronics Industry Status
& Opportunities for Latin America”, California, 1995.
Por su carácter de tecnología de punta, la electrónica demanda mano de obra de
alta y mediana calificación para las tareas de desarrollo de productos, fabricación,
instalación, prueba, reparación y mantenimiento de equipos y sistemas en campos
como telecomunicaciones, automatización, control, computación, electromedicina,
etc. Pero la demanda de mano de obra va mucho mas allá, pues las empresas
requieren personal calificado para labores propias de la comercialización de
bienes y servicios de base electrónica tales como diseño de soluciones, asesoría,
ventas, servicio al cliente, servicio postventas, etc.
Como puede verse el campo de acción para los tecnólogos y los ingenieros
electrónicos es muy amplio y se encuentra en expansión por el creciente
desarrollo que los servicios de base electrónica están teniendo en todo el mundo,
desarrollo que apenas se halla en sus comienzos y del que no se pueden sustraer
los países subdesarrollados, a riesgo de acentuar su atraso..
1.4 SISTEMA
1.4.1 Definición10
sistema.
1. m. Conjunto de reglas o principios sobre una materia racionalmente enlazados
entre sí.
2. m. Conjunto de cosas que relacionadas entre sí ordenadamente contribuyen a
determinado objeto.
3. m. Biol. Conjunto de órganos que intervienen en alguna de las principales
funciones vegetativas. Sistema nervioso.
4. m. Ling. Conjunto estructurado de unidades relacionadas entre sí que se
definen por oposición; p. ej., la lengua o los distintos componentes de la
descripción lingüística.
Otras definiciones
Romero Augusto,11 Existen diversos conceptos y definiciones de sistemas que se
han usado con frecuencia en las distintas disciplinas y ocupaciones. Muchos han
escuchado los términos sistema social, sistema de producción, sistema financiero,
sistema de administración, sistema de instrucción, ingeniería de sistemas, etc.
10
REAL ACADEMIA ESPAÑOLA, Diccionario de la lengua española, marzo de 2006. http://www.rae.es
ROMERO, Augusto, Teoría de sistemas; Universidad Pedagógica Nacional de Colombia. Bogotá 1978.
Mimeografiado. Pg 42
11
21
Desde aquí se ve la palabra en diferentes campos, desde la industria hasta las
ciencias puras.
Llama la atención las definiciones que han aportado diversos autores en su afán
de construir una teoría general de sistemas:
Banghart (1969), define sistema como un término que representa todas las
actividades que comprende un proceso de solución de problemas, desde su
formulación, pasando por la implementación, hasta llegar a las recomendaciones.
Ryan (1969), lo define como una organización de componentes interrelacionados
e interdependientes, con la organización general y con el medio o contexto en el
cual se ubica. Esta relación se mantiene mediante formas de operación y de
información entre el sistema y el contexto, con el propósito de lograr los objetivos,
asignados a la organización o sistema.
Silvern (1968), establece que un sistema es la estructura u organización de un
todo, que muestra claramente las interrelaciones de las partes entre sí y con la
totalidad a la cual pertenecen.
Kaufman (1972), define un sistema como la suma total de partes trabajando interdependientemente entre si para lograr resultados requeridos, con base en
necesidades establecidas.
Bertalanffy (1973), define un sistema como un conjunto de elementos
interactuando.
Finalmente, Banathy (1973) afirma que un sistema esta constituido por un
conjunto de partes de una organización diseñada para lograr
objetivos
específicos.
De las anteriores definiciones se puede deducir que sistema es un concepto que
puede referirse a un individuo, a una institución o a cualquier otra entidad. En su
definición participan elementos tales como: 1. conjunto de partes interactuando 2.
con objetivos propios 3. cuyo logro se realiza a través de procesos. 4 para
producir resultados deseados; 5. el funcionamiento está determinado por límites
identificables en el contexto en el cual se ubica y 6. el mantenimiento de un
sistema es posible mediante el intercambio de energía e información con el
contexto, a través de procesos de control e información de retorno.
Lo anterior nos demuestra la carencia de principios y de una teoría general que
pueda ser aplicada a todos los sistemas.
1.4.2
Características y clases de los sistemas.
22
Ryan (1969) establece las siguientes características como propias de los
sistemas:
o Son conjuntos de elementos ordenados y organizados.
o Están compuestos de elementos o componentes y de relaciones entre si y con
la totalidad del sistema.
o Funcionan como una totalidad en virtud de la interdependencia entre las partes.
o Están ubicados dentro de un contexto y orientados hacia fines específicos.
o Poseen una estructura de funcionamiento que les permite una dinámica de
desarrollo.
Este mismo autor ofrece cuatro principios generales, los cuales han sido aplicados
al estudio del funcionamiento de los sistemas y al desarrollo de nuevos sistemas:
PRINCIPIO I: A mayor grado de totalidad en el sistema, mayor es su eficiencia.
En todo sistema debe existir cierto grado de totalidad. Esta es definida por la
forma en que cada parte del sistema está en relación con cada una de las otras
partes, en tal sentido, que un cambio producido en una de ellas, repercute en las
otras partes y en el sistema total.
PRINCIPIO II: A mayor grado de sistematización mayor es también la eficiencia de
operación del sistema. La sistematización hace referencia al grado de fortaleza en
las relaciones entre las partes de un sistema. En un sistema cuyas partes estén
debidamente interrelacionadas, se hace necesario el ajuste de estas relaciones o
el reemplazo de las partes, a fin de lograr el nivel deseado de firmeza y seguridad
en el funcionamiento del sistema.
PRINCIPIO III: A mayor grado de optimización, más efectivo es el sistema. La
optimización se define como el grado de congruencia entre el sistema y su
objetivo. Además, el sistema debe estar adaptado a las condiciones del medio en
tal forma que se asegure la mejor actuación en relación con los objetivos.
PRINCIPIO IV: A mayor grado de compatibilidad entre el sistema y su contexto,
más efectivo es el sistema. La compatibilidad se refiere a la vinculación funcional
del sistema con un medio particular. Es decir, un sistema debe operar de acuerdo
con las características propias del medio.
Clasificación de los sistemas. Todos los internos de clasificación de los sistemas
han demostrado que ésta es una misión compleja y un proceso difícil. Una
clasificación inicial es la que divide los sistemas en deterministas y probabilistas.
NIVELES DE LOS SISTEMAS12
Si se observa la relación, todos los sistemas pueden ser considerados como parte
de un sistema mayor y, al mismo tiempo, considerárseles como formados por
12
BERTANLANFFY, L:V Teoría general de sistemas. Ed Boston, 1973, pg 99.
23
partes o subsistemas.
según ciertos niveles.
Esta situación determina la necesidad de clasificarlos
Las partes principales de un sistema, también conocidas como las funciones
principales, son llamadas sub-sistemas. Un sistema puede tener dos o más subsistemas.
El supra-sistema es la totalidad resultante de la interacción de un conjunto de
sistemas. Por ejemplo, la relación que existe entre el sistema nervioso y el cuerpo
humano, entre las escuelas, tomadas individualmente como sistemas y el contexto
socio-cultural al cual pertenecen; entre el sistema educativo nacional y el suprasistema social. Así, la definición de subsistema o sistema, está en relación con el
sistema mayor al cual pertenece.
Otra clasificación de los niveles de los sistemas, es la presentada por Boulding
(1956).
NIVEL
Estructuras estáticas
Mecanismos de control
Sistemas abiertos
Sistema animal
Sistemas humanos
Sistemas sociales
Sistemas simbólicos
DESCRIPCIÓN
Llamado también el nivel de las estructuras.
Considerado como el principio de conocimientos teóricos organizados,
pues la precisión de relaciones estáticas hace posible la teoría
dinámica o funcional. Este nivel comprende; átomos, moléculas,
cristales, estructuras biológicas de nivel microscópico. Su descripción
se hace a través de fórmulas estructurales.
Son sistemas cibernéticos y homeostáticos en cuanto a la transmisión
e interpretación de información esencial para la supervivencia del
sistema. A este nivel pertenecen el termostato, servomecanismos y
mecanismos homeostáticos en los organismos.
Son estructuras autorreguladas, en donde se puede diferenciar la vida.
Son sistemas que sostienen el paso de la materia (metabolismo).
También se le denomina el nivel de la célula y de los organismos en
general.
Están caracterizados por la capacidad de movimiento creciente,
conducta teleológica, aprendizaje y conocimiento de su existencia. El
modo de actuar responde a una imagen o estructura de conocimiento
o percepción del medio ambiente. Tienen comportamiento autónomo
debido a la gran capacidad de recepción y procesamiento de
información. Aquí comienza la teoría referida a los autómatas.
Es el individuo considerado como sistema. Se diferencia del nivel
anterior por cuanto posee autoconciencia; la percepción, además de
ser más compleja tiene una cualidad reflexiva, no sólo conoce, sino
que esta consciente de lo que conoce. Estas propiedades están
ligadas a los fenómenos del lenguaje: hablar, producir, percibir e
interpretar símbolos.
Son las organizaciones sociales, donde tienen especial significado los
valores, la naturaleza y dimensión del conjunto de valores, los
símbolos vinculados a las manifestaciones artísticas y la gama
completa de emociones humanas.
Representados por el lenguaje; la lógica; las matemáticas, las artes, la
moral y demás sistemas de orden simbólicos.
24
25
CAPITULO 2
2.1
ANTECEDENTES
Historia de la Ingeniería13
LA INGENIERÍA PRIMITIVA
La ingeniería era ya milenaria cuando se intentó definirla, nació antes que la
ciencia y la tecnología y puede decirse que es casi tan antigua como el hombre
mismo. Obviamente esta concepción de lo que es un ingeniero se sale de los
estrechos marcos de las conceptualizaciones actuales. No se pretenderá que los
ingenieros primigenios fueran científicos y mucho menos que conocieran la
tecnología, eran simplemente ingenieros. Por ello ingeniero no es quien tiene
título, es quien ejerce la ingeniería, la profesión que concreta los sueños y
construye los ingenios de todo tipo, desde la rueda hasta los cyborgs, entendiendo
como ingenio ya sea una máquina o artificio de guerra o bien una cosa que se
fabrica con entendimiento y facilita la labor humana, que de otra manera
demandaría grandes esfuerzos. En realidad la palabra ingeniero apareció en la
Edad Media para designar a los constructores de ingenios, aunque junto con el
sacerdocio y la milicia la ingeniería fue una de las primeras profesiones en
aparecer.
La ingeniería, cualquiera que sea su definición formal, tiene su historia, pues ella
no se ha desarrollado sin conexión con las otras actividades humanas, al
contrario: es una de las más significativas empresas sociales del hombre. En este
sentido la ingeniería debe mirarse en el contexto de la historia general asociada
con los grandes eventos que han cambiado totalmente los sistemas de la vida
humana como: la revolución en la producción de alimentos (6000-3000 AC), la
aparición de la sociedad urbana (3000-2000 AC), el nacimiento de la ciencia
griega (600-300), la revolución en la fuerza motriz (Edad Media), el surgimiento de
la ciencia moderna (siglo XVII), el vapor y la revolución industrial (siglo XVIII), la
electricidad y los comienzos de la ciencia aplicada (siglo XIX), la edad de la
automatización (siglo XX), la revolución termonuclear, la revolución de la
electrónica y la informática, en suma con la nueva era del conocimiento. A través
de las edades, el ingeniero ha estado al frente como un hacedor de la historia. Sus
logros materiales han tenido tanto impacto como cualquier otro desarrollo político,
económico o social. Estos cambios fundamentales han estimulado desarrollos
ingenieriles, los cuales a su vez han acelerado la velocidad de la revolución
histórica14
13
Asdrúbal Valencia Giraldo, Facultad de Ingeniería Universidad de Antioquia,
http://jaibana.udea.edu.co/~fabiovel/ingenieria.htm
14
El autor cita a: Kirby, Richard Shelton et al., Engineering in history, Dover Publications, New York,
1990, Ribeiro, Darcy, El proceso civilizatorio, Universidad del Valle, Cali, 1993.
26
Los comienzos de la ingeniería se considera que ocurrieron en Asia Menor o
África hace unos 8000 años, cuando el hombre empezó a cultivar plantas,
domesticar animales, y construir casas en grupos comunitarios.
Tras el afianzamiento de la revolución agrícola, se acumularon innovaciones
técnicas que ampliaron progresivamente la eficacia productiva del trabajo humano,
se inició así el influjo inicial de la ingeniería, que provocó alteraciones
institucionales en los modos de relación entre los hombres para la producción y en
las formas de distribución de los productos del trabajo. El cambio más significativo
fue el surgimiento de las ciudades que ocurrió hacia el año 3000 A.C.
En las ciudades hubo administración central y comercio y muchos habitantes
adoptaron profesiones diferentes a las de agricultor, pastor o pescador; se hicieron
gobernantes, administradores, soldados, sacerdotes, escribas o artesanos, a
quienes se puede llamar los primeros ingenieros. Es decir se afianzó la técnica. La
interacción entre esta nueva sociedad urbana y la ingeniería fue muy fértil, pero de
igual importancia fue el desarrollo del conocimiento y las herramientas del
conocimiento fundamental para los ingenieros.
Los desarrollos de esta época incluyen los métodos de producir fuego a voluntad,
la fusión de ciertos minerales para producir herramientas de cobre y bronce, la
invención del eje y la rueda, el desarrollo del sistema de símbolos para la
comunicación escrita, las técnicas de cálculo y la aritmética y la normalización de
pesas y medidas.
Hasta 3000 A.C. la mayoría de las edificaciones eran modestas viviendas, pero
desde entonces la ingeniería estructural dejó de ser meramente funcional, también
fue arquitectónica. Se construyeron grandes palacios para los príncipes y enormes
templos para los sacerdotes. Una consecuencia de la aparición de las religiones
organizadas, con su gran estructura, fue un aumento de la actividad ingenieril y de
su conocimiento. La nueva riqueza y los rituales religiosos también llevaron a la
construcción de tumbas monumentales, de las cuales son ejemplo sobresaliente
las pirámides. De hecho el primer ingeniero conocido por su nombre fue Imhotep,
constructor de la Pirámide de peldaños en Saqqarah, Egipto, probablemente hacia
el 2550 A.C. Este ingeniero alcanzó tanta reverencia por su sabiduría y habilidad,
que fue elevado a la categoría de dios después de su muerte.
Los sucesores de Imhotep - egipcios, persas, griegos y romanos - llevaron la
ingeniería civil a notables alturas sobre la base de métodos empíricos ayudados
por la aritmética, la geometría y algunos conocimientos incipientes de física15. Sin
embargo, es paradójico que la obra de los ingenieros, presente en toda la historia,
15
El autor cita a: The New Encyclopaedia Britannica, "Engineering", Macropaedia, vol 18, 15th ed.,
Chicago, 1993, p. 414.
27
no fue reconocida jamás como obra de ingeniería, sino, acaso, como obra de
arquitectura.
Podrían explicarse largamente los sistemas de construcción en Mesopotámia, los
sistemas de ingeniería hidráulica y sanitaria que se desarrollaron allí, así como los
caminos, los puentes y las artes navales de los imperios asirios, babilonios y otros
pueblos de esa región. Sin embargo, no es objeto de este trabajo hacer una
historia de la ingeniería sino señalar algunos hechos que permitan presentar
posteriormente los argumentos necesarios al meollo de esta exposición: lo
artístico y sacro (o mágico) de la ingeniería.
De la misma manera debe recordarse la ingeniería egipcia basada en la fuerza de
ejércitos de hombres sometidos a un faraón y en la gran cantidad de piedra
disponible en el valle del Nilo. Esto permitió la construcción de los enormes
templos y pirámides característicos. Allí además se hizo necesaria la construcción
de complejos sistemas de irrigación, dando origen a la agrimensura y la
matemática correspondiente.
Es claro, entonces que el mundo antiguo percibió a la ingeniería como un
quehacer que competía con las fuerzas naturales y las domeñaba, con una
profesión atenta a la invención de los ingenios de guerra, de las máquinas de
extracción del agua, de los caminos, de los canales, de los puentes, del
desecamiento de los pantanos, de las galerías subterráneas, de los grandes
ingenios portuarios, de las defensas de las ciudades...16
Esa percepción de que la ingeniería enfrentaba las fuerzas de la Naturaleza
comprendía en ella una componente técnica, pero sobre todo intuía una porción
mágica, sagrada: el portento de alterar los ritmos y las figuras del ser natural.
Unos portentos que asombraban, atemorizaban y hacían al mismo tiempo que el
hombre se atreviera a lo insólito con el imaginar de su inventiva.
2.1.1 Historia de la ingeniería en el mundo17
LOS INGENIERÍA GRIEGA Y ROMANA
16
El autor cita a: Beakley, George C. and H. W. Leach, Engineering. An introduction to a creative profession,
The Macmillan Company, New York, 1987.
Furnas, C. C. and J. McCarthy, The engineer, Time, New York, 1966.
Ehinnery, John R., The world of engineering, McGraw Hill, New York, 1985.
17
Asdrúbal Valencia Giraldo, Facultad de Ingeniería Universidad de Antioquia,
http://jaibana.udea.edu.co/~fabiovel/ingenieria.htm
28
Con el declinar de la civilización egipcia, el centro del conocimiento se desplazó a
la isla de Creta y después, alrededor del 1400 A. C., hacia la antigua ciudad de
Micenas en Grecia, el lugar de donde Agamenón partió para la guerra de Troya.
Los constructores de Micenas, como los egipcios, manejaron enormes bloques de
piedra, hasta de 120 toneladas, en sus construcciones. Además dominaron el arco
falso, una técnica que les ha ganado un puesto en la ingeniería. Este principio lo
usaron en las construcciones subterráneas, como tumbas y sótanos y en las
superficiales en puentes para vías y acueductos, pues estos últimos los
construyeron con eficacia, así como los sistemas de drenaje18.
Los griegos de Atenas y Esparta copiaron muchos de sus desarrollos de los
ingenieros minoicos, porque en esa época fueron más conocidos por el desarrollo
intensivo de ideas prestadas que por su creatividad e inventiva.
La ciencia griega no fue muy propensa a la ingeniería, pero en este sentido quizá
su mayor contribución fue descubrir que la naturaleza tiene leyes generales de
comportamiento, las cuales se pueden describir con palabras. Además está la
ventaja de la geometría euclidiana y su influjo en la ingeniería
El primer ingeniero reconocido en el mundo griego fue Pytheos, constructor del
Mausoleo de Halicarnaso em 352 A.C., quien combinó allí tres elementos: el
pedestal elevado de la columna, el templo griego y el túmulo funerario egipcio.
Además fue el primero que entrenó sus aprendices en escuelas y escribió tratados
para los constructores del futuro.
Otros ingenieros importantes fueron Dinocrates el planeador de Alejandría y
Sostratus, quien contruyó el famoso faro. Inventos y descubrimientos griegos
sobresalientes son los de Arquímedes y los de Cresibius, antecesor de Herón, el
inventor de la turbina de vapor.
Pero los mejores ingenieros de la antigüedad fueron los romanos, quienes
liberalmente tomaron ideas de los países conquistados para usarlas en la guerra y
las obras públicas. Aunque muchas veces carecieron de originalidad de
pensamiento, los ingenieros romanos fueron superiores en la aplicación de las
técnicas, entre las cuales son notables los puentes que usaron en vías y
acueductos.
18
El autor cita a: Franz, Georg, Las transformaciones en el mundo mediterráneo, Siglo
XXI, México, 1980.
29
Pontífice, la palabra que designaba a las ingenieros constructores de puentes,
tomó una denotación tan importante que en tiempos de los romanos vino a
significar el magistrado sacerdotal que organizaba y presidía el culto a los dioses y
con esa acepción se utiliza el término en la actualidad. Esta anotación semántica
sólo para insistir en el contenido sacro de las actividades ingenieriles.
Además de los notables puentes de los acueductos, visibles en Europa y Asia y de
los cuales son ejemplos famosos el aguaducho de Segovia o el Pont du Gard,
cerca de Nimes, con 50 m de altura y 300 de largo, son altamente notables las
famosas vías imperiales como la Via Appia y la Via Flaminia, que atraviesan Italia
longitudinalmente. En la cumbre del poder romano la red de carreteras cubría
290.000 kms desde Escocia hasta Persia.
Un historiador afirma que las ciudades del imperio romano gozaban de sistemas
de drenaje y suministro de agua, calefacción, calles pavimentadas, mercados de
carne y pescado, baños públicos y otras facilidades municipales comparables a las
actuales.
La aplicación de la ingeniería en las artes militares y en los problemas de
navegación, adecuación de puertos y bahías implicó, como en los otros casos, el
uso de máquinas, materiales y procesos, que hablan del grado de desarrollo de la
ingeniería romana, de la cual quedó fundamentación escrita en muchos tratados
escritos en aquel tiempo y entre los cuales descuellan los trabajos de Vitruvio.
El libro De Architectura de Vitruvio, fue escrito en Roma en el primer siglo D.C.
Consistía en 10 volúmenes que incluyen materiales y métodos de construcción,
hidráulica, mediciones, diseño y planificación urbana19.
Cuando el poder se desplazó de Roma a Bizancio en el siglo sexto D.C. la
ingeniería romana se adaptó a nuevas exigencias y surgieron nuevas formas de
construcción, en esto los bizantinos superaron a egipcios, griegos y romanos,
desarrollaron el principio del arco y lo utilizaron en un domo soportado en las
esquinas de una torre cuadrada, la diagonal de la cual era igual al diámetro de la
base del domo. Un ejemplo notable de este sistema es la catedral de Santa Sofía.
LA INGENIERÍA EN LA EDAD MEDIA
Después de la caída de Roma, el conocimiento científico se dispersó entre
pequeños grupos, principalmente bajo el control de órdenes religiosas. En el
Oriente, empezó un despertar de la tecnología entre los árabes, pero se hizo muy
19
El autor cita a: Vitruvius Pollio, Marcus, On architecture, Putnam's and sons, New York,
1934.
30
poco esfuerzo organizado para realizar trabajo científico. Al contrario, fue un
período en el cual individuos aislados hicieron nuevos descubrimientos y
redescubrieron hechos científicos conocidos antes.
Fue durante este período que se usó por primera vez la palabra ingeniero. La
historia cuenta que alrededor del año 200 D.C se construyó un ingenio, una
invención, que era una especie de catapulta usada en el ataque de las murallas
defensoras de las ciudades. Miles de años después sabemos que el operador de
tal máquina de guerra era el ingeniator, el origen de nuestro título moderno: el
ingeniero.
Un historiador afirma que: "la principal gloria de la Edad Media no fueron sus
catedrales, su épica o su escolástica: fue la construcción, por primera vez en la
historia, de una civilización compleja que no se basó en las espaldas sudorosas de
esclavos o peones sino primordialmente en fuerza no humana"20. Esto porque la
revolución medieval de la fuerza y la potencia es uno de los desarrollos más
dramáticos e importantes de la historia. Obviamente que un estímulo para este
desarrollo fue el decaimiento de la institución de la esclavitud y el continuo
crecimiento del cristianismo.
Las principales fuentes de potencia fueron; la fuerza hidráulica, el viento y el
caballo, que se concretaron en las ruedas y turbinas hidráulicas, los molinos de
viento y las velas, las carretas y los carruajes.
Además se hicieron otros avances técnicos como el uso del carbón de leña y el
soplo de aire para fundir el hierro eficientemente. Otro avance fue la introducción,
desde China, del papel y la pólvora por los árabes, así como las ciencias de la
química y la óptica que ellos desarrollaron.
Sin duda el uso del papel, la invención de la imprenta y la brújula, con las
posibilidades de navegación, contribuyeron a la dispersión del conocimiento.
El cristianismo hizo desarrollar la construcción en expresiones tan maravillosas y
sacras como las catedrales góticas y el Islam las construcciones y mezquitas de
los moros. Los ingenieros medievales elevaron la técnica de la construcción, en la
forma del arco gótico y los arbotantes, hasta alturas desconocidas por los
romanos.
Vías, puentes, canales, túneles, diques, puertos, muelles y máquinas se
construyeron en la Edad Media con un conocimiento, que todavía pasma en la
20
El autor cita a: Harvey, John, The Gothic World 1100-1600, B. T. Batsford, London, 1970.
31
actualidad. El libro de bosquejos del ingeniero francés Villard de Honnecourt
revela un amplio conocimiento de las matemáticas, la geometría, las ciencias
naturales y la artesanía.
De esos tiempos data una máquina tan maravillosa como el reloj mecánico, que
iría a influir tan marcadamente en la civilización moderna. En Asia la ingeniería
también avanzó con complejas técnicas de construcción, hidráulica y metalurgia,
que ayudaron a crear civilizaciones como la del imperio Mongol, cuyas grandes y
bellas ciudades impresionaron a Marco Polo en el siglo XIII.
LA REVOLUCIÓN CIENTÍFICA Y TECNOLÓGICO DE LOS SIGLOS XVII Y XVIII
Aunque Venecia se enorgullece de sus esplendentes obras de ingeniería,
Florencia tuvo el más famoso ingeniero de todos los tiempos. Pocas veces ha sido
bendecido el mundo con un genio como Leonardo da Vinci (1452-1519). Aunque
aún es aclamado como uno de las grandes artistas del Renacimiento, sus
esfuerzos como ingeniero, inventor y arquitecto, son todavía más impresionantes.
Mucho después de su muerte sus diseños de la turbina de gas, la ametralladora,
la cámara, las membranas cónicas y el helicóptero, han demostrado ser
utilizables.
Galileo (1564-1642) fue también un hombre de gran versatilidad. Fue un excelente
escritor, artista y músico, y es considerado también como uno de los principales
científicos de este período histórico. Una de sus mayores contribuciones fue su
formulación del método científico para acceder al conocimiento.
Habrá que mencionar una pléyade de nombres ilustres en el desarrollo de la
ciencia y la tecnología en este período: Torricelli, Pascal, Fermat, Descartes,
Boyle, Hooke, Huygens, Leibniz y ese otro genio inglés: Isaac Newton.
En esa época se hicieron los primeros intentos para producir la máquina de vapor
por parte de Papin y Newcomen. Aunque estas primeras máquinas eran muy
ineficientes, marcaron el inicio de las máquinas térmicas como productoras de
potencia21.
La revolución industrial
Cuarenta años después de la muerte de Newcomen, James Watt hizo cambios tan
fundamentales e importantes que, junto con Newcomen y Savery, se le da crédito
como originador de la máquina de vapor. El otro desarrollo que dio ímpetu a los
21
El autor cita a: Berg, Maxine, La era de las manufacturas 1700-1820, Editorial
Crítica, Barcelona, 1987.
32
descubrimientos tecnológicos fue el método, descubierto por Henry Cort, para
refinar el hierro. Este y la máquina de Watt proporcionaron una fuente de hierro
para la maquinaria y plantas de fuerza motriz para operar la maquinaria.
El barco de vapor y los ferrocarriles, la unión entre la ciencia y la técnica, la
enseñanza de la ingeniería y el desarrollo industrial generaron todas las
consecuencias de la Revolución Industrial22.
LA INGENIERÍA DEL SIGLO XX
Tres desarrollos de la ingeniería del siglo XIX cambiaron las formas de vida
humana y alteraron la evolución de la historia. El primero fue la expansión de la
revolución industrial, el segundo el surgimiento de la ingeniería civil como una
profesión, que incluyó la conciencia de la necesidad de la educación científica y
técnica como prerrequisito para la práctica ingenieril. El tercer desarrollo, y el más
importante, correlacionado con el segundo, fue la introducción de un nuevo
método para el logro del avance ingenieril: el método de la ciencia aplicada.
Un ejemplo del método anterior fue el desarrollo de la ingeniería eléctrica, lo cual
unido a la popularización del motor de combustión interna y a la química originaron
la llamada segunda revolución industrial de principios del siglo XX. A partir de
entonces emergió una gran cantidad de invenciones que estaban destinadas a
tener un efecto de largo alcance en nuestra civilización. El automóvil se empezó a
usar extensivamente al hacerse disponibles mejores carreteras. Las invenciones
de equipo eléctrico por Edison y del tubo electrónico por DeForest impulsaron el
uso de sistemas de potencia y las comunicaciones. Además apareció en escena el
avión.
A partir de entonces se desarrolló la ingeniería en todas sus especialidades: civil y
sus ramas, construcción, transporte, marítima e hidráulica, potencia y sanitaria;
mecánica y sus ramas, de maquinaria, de armas, automotriz, de producción,
naval, etc; industrial; química y sus ramas; eléctrica y electrónica, con sus ramas
de control, comunicaciones, potencia y microelectrónica; de petróleos;
aeroespacial; de materiales; nuclear; bioingeniería; de sistemas y toda una serie
de especialidades que no es posible mencionar aquí.
Casi desde su inicio la ingeniería tuvo dos aplicaciones: una de uso cotidiano y
una de uso mítico. El primer mundo conceptual corresponde a la solución de las
necesidades civiles y militares que permitió construir todo tipo de obras y espacios
para realizar actividades cotidianas y colectivas. La otra aplicación, de carácter
22
Cazadero, Manuel, Las revoluciones industriales, Fondo de Cultura Económica,
México, 1995.
33
sacro, se refiere a la fabricación de utensilios y la creación de espacios más
complejos y se concretó, sobre todo, en las construcciones de templos y tumbas23.
"Algunas culturas materializan sus conceptos geométricos y matemáticos en obras
arquitectónicas monumentales, sobre todo en aquellas obras en que domina un
pensamiento mágico, donde el mundo cultural está introducido en el universo
natural. Mientras que las construcciones domésticas se hacen con materiales
naturales perecederos se da más importancia a la manufactura de objetos que por
su significado trascendental tienen la finalidad de que perduren en la muerte. Este
parece ser el caso de San Agustín".24
Este aspecto mágico de la ingeniería podría indagarse en las obras de todas las
civilizaciones, desde los megalitos, los ziggurats sumerios, las mastabas,
pirámides y templos egipcios, los templos minoicos, los laberintos cretenses, los
monumentos romanos, las catedrales góticas, las pagodas orientales, las
pirámides americanas, las tumbas agustinianas, hasta los templos actuales. Esto
se puede rastrear en cualquier cultura, antigua o actual. En este contexto se opta
por ejemplos de nuestra cultura aborigen lo que permite explicar más de cerca la
dimensión mítica de la ingeniería.
“Entre los kogi, como en la mayoría de las comunidades indígenas, quien detenta
la principal jerarquía religiosa, el mamo, es el depositario del mito en su integridad
y del conocimiento en general, se convierte en conservador del orden natural y
social a la vez que asume las funciones de arquitecto e ingeniero".
“Sólo el mamo está capacitado para innovar la técnica constructiva y teorizar
acerca de ella, mientras conserva el velo del mito pues sin él se rompería el
equilibrio ecológico del hábitat"
“La relación mito-rito-construcción, por analogía, se puede traducir así: teoríatécnica-aplicación, salvando las características propias de cada disciplina y
considerando el papel de la experiencia en la formulación teórica".25
Así se entienden afirmaciones como las de Llanos: " Para poder identificar una
cultura y posteriormente conocer su actuación histórica con sus transformaciones,
tenemos que aproximarnos a sus modelos conceptuales que están contenidos en
sus asentamientos domésticos cotidianos (poblados, viviendas, campos de cultivo,
talleres, caminos, etc.), y a sus modelos míticos por intermedio del conjunto de
23
El autor cita a: O'Dea, William T., The meaning of engineering, Museum Press, London, 1961.
El autor cita a:Llanos V., Héctor, "Espacios míticos y cotidianos en el sur del Alto Magdalena
Agustiniano", Ingeniería prehispánicas, FEN, Bogotá, 1990.
25
El autor cita a: Salazar, Luz Amanda, En los orígenes de la ingeniería colombiana, Universidad Nacional de
Colombia, Bogotá, 1988, p. 41.
24
34
signos plasmados de manera articulada en sus objetos mágicos, hechos en arcilla,
piedra, metal o cualquier otro material".
"Pero, los objetos y elementos arqueológicos no se encuentran
descontextualizados ni desarticulados, sino que por el contrario éstos pertenecen
a espacios culturales, a espacios arquitectónicos [e ingenieriles] cotidianos y
míticos. Si al menos identificamos estos modelos arquitectónicos, logramos
identificar sus pautas de asentamiento, y por tanto conocer el nivel de complejidad
social, política, económica y mágica alcanzado por la cultura que investigamos."26
La acción de la tecnología (y la ingeniería) requiere cuatro elementos:
1- los seres o cosas sobre los que actuar, 2- los conocimientos, 3- la intención y
decisión de aprovechar los recursos y conocimientos y 4- la inventiva y la
capacidad manual. El primer elemento son los recursos, los otros tres son
aspectos de la cultura humana que obran sobre los primeros.
Pero, como anota Patiño, "Un recurso puede existir al alcance y no ser
aprovechado. las razones son varias, pero se pueden reducir a dos: que no se
conozcan las propiedades de las cosas o que se formen tabúes sobre lugares,
minerales, plantas o animales, que impiden usarlas a pesar de su presencia. La
posesión de técnicas no quiere decir que sean o puedan ser siempre utilizadas".
Se encuentra aquí una primera tensión entre la posibilidad técnica y la posibilidad
mágica, por eso se indicó que se puede hablar de una ingeniería sagrada y otra
secular. Dentro de la primera se dan dos expresiones: la que se refiere a los
instrumentos y herramientas artesanales y la que se desarrolló para fines
religiosos, como los templos griegos. Por ello se entiende que, inicialmente, la
ingeniería tuvo que arroparse y estar contenida en el ámbito de lo sacro para
poder tener posibilidades reales, e incluso ilimitadas, de acción. Esto porque la
religión, ya antes de que estuvieran disponibles los beneficios generales de la
ingeniería, ocupaba un lugar principal en el pensamiento y la acción humanos. Sin
embargo, aunque la ingeniería no ha jugado una parte directa en la formulación de
ninguna religión, la tecnología ha facilitado enormemente la comunicación de las
enseñanzas religiosas a millones de personas. La producción del papiro, del papel
y las tintas ha sido de importancia en la diseminación de las creencias religiosas
así como de la educación en general. De la misma manera, la construcción de
templos e iglesias ha mejorado la vida religiosa.
Una culminación de ello es, sin duda, la catedral gótica, cuyo contenido esotérico
ha descrito tan bien Fulcanelli cuando dice que: "Es asilo inviolable de los
26 El autor cita a: Llanos V., Héctor, "Algunas consideraciones sobre la Cultura de San Agustín: Un Proceso
histórico Milenario en el Sur del Alto Magdalena de Colombia", Boletín Museo del Oro, Banco de la
República, No 22, Bogotá, 1988, p. 83.
35
perseguidos y sepulcro de los difuntos ilustres. Es la ciudad dentro de la ciudad, el
núcleo intelectual y moral de la colectividad, el corazón de la actividad, pública, el
apoteósis del pensamiento del saber y del arte."
"Por la abundante floración de su ornato, por la variedad de los temas y las
escenas que la adornan, la catedral aparece como una enciclopedia completa y
variada -ora ingenua, ora noble, siempre viva- de todos los conocimientos
medievales. Estas esfinges de piedra son, pues, educadoras, iniciadoras
primordiales... El arte y la ciencia, concentrados antaño en los grandes
monasterios, escapan del laboratorio, corren al edificio, se agarran de los
campanarios, a los pináculos, a los arbotantes, se cuelgan de los arcos de las
bóvedas, pueblan los nichos, transforman los vidrios en gemas preciosas, los
bronces en vibraciones sonoras, y se extienden sobre las fachadas en un vuelo
gozoso de libertad de expresión...nada más cautivador, sobre todo, que el
simbolismo de los viejos alquimistas, hábilmente plasmados por los modestos
escultores medievales...".27
Aunque la descripción alquímica de Fulcanelli escapa a la brevedad de estas
notas, no puede dejar de recalcarse esta evidente relación entre la obra de
ingeniería y la obra hermética, porque las maravillas de la Edad Media contienen
la misma verdad, el mismo fondo esotérico, que las pirámides de Egipto, los
templos de Grecia, las catacumbas romanas, las basílicas bizantinas. Y ese es el
alcance del libro de Fulcanelli, que se expresa así sobre el término gótico:
"La explicación del término arte gótico debe buscarse en el origen cabalístico de la
palabra... arte gótico no es más que una deformación de argótico. La catedral es
una obra de art goth, es pues, una cábala hablada...". 28
Pero el contenido mágico de la ingeniería no sólo existe en los antiguos
monumentos, que realmente sobrecogen, como lo han experimentado los viajeros
frente a Machu Pichu, en la pirámides de Tikal, bajo la gran pirámide, al pie de
Stonehenge o junto a los mohais de la Isla da Pascua. También es una visión
mágica la gran muralla china vista por un viajero exterior a la tierra; fue algo más
que mágica la llegada del hombre a la luna, son mágicos los equipos médicos que
exploran el cuerpo humano y aún el cerebro y la mente. Así a pesar de que la
tecnología moderna dice basarse en la desacralización de la ciencia, y de que
lleva a la secularización del mundo, sus motivaciones desde el punto de vista
humano son las mismas que crearon la tecnología sagrada.29
27 El autor cita a: Fulcanelli, El misterio de las catedrales, Plaza & Janés, Barcelona, 1969, p. 57.
28 El autor cita a: Fulcanelli, El misterio de las catedrales, Plaza & Janés, Barcelona, 1969, p. 57.
29 El autor cita a: Claret Z., Alfonso, "Una apreciación evaluativa de la Edad Media desde el punto de vista
de las ciencias", Seminario Historia de las Ciencias, Facultad de Educación, Universidad del Valle, 1984.
36
Los sueños del hombre, los que lo han llevado a la situación actual del mundo,
pasan por el dominio de la naturaleza: se sueña con el control de la población, con
un gobierno mundial, con fuentes permanentes de energía, con el control del
clima, con los robots, con los computadores y la educación con ellos, con la
transferencia instantánea de masas a distancia, con la aldea global, con la
reproducción asexuada, con los seres humanos biónicos (cyborgs), con la
ingeniería genética, con el control de la evolución, con la inmortalidad, con la
telepatía, con la comunicación entre especies, con la explotación del espacio
próximo, con las colonias espaciales, con los vuelos en campos de baja
gravitación, con los viajes interplanetarios, con la creación de nuevas tierras, con
el control de la gravitación, con la comunicación interestelar, con los viajes
interestelares, con los agujeros negros, con los imperios galácticos, con los viajes
a través del tiempo, con los cambios alternativos a través del tiempo, sueños todos
estos que tienen un elevado contenido tecnológico, vale decir ingenieril.
Pero estos sueños nuevos no son recientes en el caso de los ingenieros, al
contrario, lo fantástico, lo mágico de la ingeniería comenzó con su atención a las
cosas de la naturaleza; en su curiosidad por ellas, en el deseo de aprehensión y
vencimiento, más allá de lo que el destino parece hacer concedido al hombre.
Toda la mítica antigua, de Sumer al hombre del Perú es abundante en estas
pasiones de dominio de la naturaleza, por lo que los ingenieros pueden como
entes de razón, pero en más de un momento por lo que pueden como criaturas de
magicidad.
Baste pensar en el contenido mítico y tecnológico de las figuras de Prometeo o de
Icaro, en lo que representan Bochica y Chimizapagua, para apreciar la dimensión
mítica de la ingeniería, en su papel de allanadora del camino que conduce el
hombre hacia la inmortalidad.
Pero hay otro aspecto más concreto de la magia de la ingeniería y es la manera
como sus obras se inscriben en el mito, y no precisamente las antiguas.
Recordemos cómo se han vuelto míticos el ferrocarril de Antioquia y el Túnel de la
Quiebra, la carretera al Mar y el Golden Gate, la torre Eiffel o la torre de Pisa, el
Taj Mahal o la represa de Asuán, el Ford T-6 y el Titanic. Lo sagrado de la
ingeniería tiene múltiples manifestaciones, que apenas alcanzan a esbozarse en
esta introducción.
2.1.2 Historia de la ingeniería en Colombia30
La modernidad de América Latina, y por ende de Colombia, es una modernidad
especial desde sus orígenes. A este respecto se plantean varias posiciones.
30
Asdrúbal Valencia Giraldo, Facultad de Ingeniería Universidad de Antioquia,
http://jaibana.udea.edu.co/~fabiovel/ingenieria.htm
37
Una visión que parte de que durante la conquista y la colonia, España y Portugal
no se abrían a la modernidad sino que con la Contrarreforma se encerraban en el
dogma y la fe única. De ahí el retraso en la sociedad, la política, la tecnología, la
economía o la cultura. Las ideologías provenientes de Europa fueron asumidas en
la América Latina con el fervor acrítico de una creencia religiosa. Inclusive el
marxismo todavía tiene vida en muchos reductos de este "Lejano Occidente". Esto
ha sido así hasta ahora porque ..."tenemos una cultura filosófica mimética que
repite los planteamientos que formulan los pensadores alemanes, franceses,
británicos, etc., sin vincular para nada esas reflexiones con nuestro pasado
histórico, con nuestro ethos cultural, con nuestras necesidades y perspectivas"31.
Aquí la ciudad, símbolo de lo moderno, no pertenece aún a sus habitantes; se
importan y consumen ciencia y procesos tecnológicos, sin una apropiación de sus
principios constitutivos, lo que en la práctica se traduce en una dependencia que
llega a afectar la misma soberanía nacional; se busca la industrialización pero sin
aceptar, en las instituciones su cultura política, e incluso en los rubros
presupuestales, la fragmentación y demandas de autonomía individual. Tanto para
las "castas señoriales" como para las "vanguardias revolucionarias", la
modernidad aparece como un costo demasiado elevado que habría que evitar.
En este contexto "Modernización" es el nombre con que se presenta hoy en
nuestro país el proyecto neocolonial vinculado a la llamada "revolución postindustrial". Salvo, quizás, que el significado del término se fije desde el horizonte
cultural de nuestro pueblo, cosa que - hasta ahora - no sucede. Para ello es
necesario entonces, determinar que la mera industrialización nada produciría si no
se formulan claras políticas públicas sociales. Esto implica parte de lo que se ha
hecho, tratar de tornar eficiente el sector público; el diseño de programas sociales
y la participación de las población y sus organizaciones en la implementación de
los mismos; la intervención sobre los procesos de concentración del ingreso y un
trato cuidadoso de la deuda externa.32
Es decir, que Colombia debe buscar sus vías para perfeccionar su modernización,
porque no se trata de modernizar la dependencia, de copiar servilmente el
desarrollo de los poderosos o de confrontarlos mediante regresiones invariables y
todavía más costosas. Se habla de tres formas principales de modernización:
•
•
31
32
La modernización equilibrada, en la que no se destruyen los valores
tradicionales. Un ejemplo es Japón .
La modernización conflictiva donde se plantean grandes antagonimsos con
las tradiciones de una parte de la sociedad, como ocurre en los países
musulmanes.
El autor cita a: Menco M. , José T., "Acerca de la razón aúrea", Informetal, No. 47, Abril 1996, p. 24
El autor cita a: Dussel, Enrique, 1492 El encubrimiento del otro, Antropos, Bogotá, 1992.
38
•
La modernización gradual, como trata de hacerse en los países
tercermundistas, laboratorios de modernidad donde lo moderno es frágil.33
Aunque Colombia haya pasado de país rural a país urbano - en 1938 el 70% de la
población residía en zonas rurales y hoy el 75% vive en las cabeceras -, y en la
ciudades las vanguardias pueden haberse trepado a la nave de lo posmoderno,
parece un poco forzado tratar de encontrar posmodernidad precisamente en las
características de una América Latina que no ha podido acceder a la modernidad.
Nuestra modernidad es, cuando más, periférica y mestiza. "En América Latina y en
Colombia en particular, lo moderno no puede jamás considerarse como un
proyecto agotado. Muy al contrario, diría que el proyecto moderno aún tiene
demasiadas porsibilidades,... aunque el sendero de la modernidad no podemos
recorrerlo del mismo modo como lo hicieron otros países para bien o para mal".34
Evidentemente, nuestro empeño debe ser la entrada a la modernidad con todo lo
que eso implica y no simplemente a la modernización ni mucho menos el creernos
posmodernos por influjo de unas artes que no están inscritas en el
internacionalismo nivelador de la aldea global.
Antecedentes
En los orígenes de la ingeniería colombiana, como en todas las demás
manifestaciones culturales, hay por lo menos tres raíces: el aporte indígena, el
aporte negro y el aporte europeo. Esto debe reconocerse de entrada y aunque sin
duda la contribución de los españoles fue dominante, es conveniente no olvidar los
otros componentes. Infortunadamente, esto no es lo aceptado por muchos
historiadores respetables, por ejemplo Bateman señala : " Hasta donde alcanzan
las noticias sobre la cultura indígena de los pueblos que habitaban lo que hoy es el
territorio de la República de Colombia, eran muy pocos los conocimientos que
tenían de las matemáticas y nula la ejecución de cualquier obra. De estas tribus la
más avanzada era la de los Chibchas, que tan sólo conocían un sistema de
numeración, de base veinte, pues contaban con los dedos de las manos y de los
pies, dándole un nombre a cada número". 35
Es posible que los indios no fueran grandes matemáticos, tema que también
podría discutirse, pero afirmar que fue nula la ejecución de cualquier obra es sin
duda una temeridad, por decir lo menos, como se demostrará en este trabajo. Un
33
El autor cita a: Hernández, Miguel Angel, "La modernización social y el mundo moderno", Estructura
Científica, desarrollo tecnológico y entorno social, Misión de Ciencia y Tecnología, Vol. 2 , Tomo II, MENDNP-FONADE, Bogotá, 1990.
34
El autor cita a: Bateman, Alfredo, "Historia de la matemática y la ingeniería", Ciencia y Tecnología en
Colombia, Colcultura, Bogotá, 1978, p. 107.
35 Jaramillo Vélez, Rubén, "La postergación de la experiencia de la modernidad en Colombia", Estructura
Científica, desarrollo tecnológico y entorno social, Misión de Ciencia y Tecnología, Vol. 2 , Tomo II, MENDNP-FONADE, Bogotá, 1990.
39
punto de vista similar es adoptado por un historiador oficial como el ingeniero
Poveda Ramos cuando señala que : " Todo lo que podemos reconocer a nuestros
aborígenes como 'ingenieros' es la construcción de caminos con una técnica muy
rudimentaria, aunque a veces con trazados muy audaces; la técnica de la
separación del oro de aluviones, la de su fundición y la de su elaboración a mano,
la minería de sal de socavón y su evaporación de aguas salinas, la muy primitiva
alfarería y los hornos de leña para cocer piezas de barro, la hilatura y el tejido del
algodón y de la lana. Pero casi nada más.".36
Algo reconoce Poveda, pues lo que señala no es poco cuando se le mira en
detalle, pero muchas más ejecutorias pueden atribuirse a nuestros aborígenes, ya
que se han documentado desarrollos técnicos y grandes transformaciones del
espacio que fueron realizados en nuestro país antes del siglo XVI, esto es lo que
se conoce como ingeniería prehispánica de acuerdo con la interpretación de Mora
Camargo, quien señala: " Resulta curioso que se emplee un término que se refiere
al arte de aplicar los conocimientos científicos a la técnica industrial, cuando se
habla de sociedades del período prehispánico. Sin embargo, se justifica esto
último al ampliar la acepción del término, incluyendo dentro de la categoría
aquellos procesos de experimentación y acumulación de conocimientos que dieron
como reusltado un procedimiento sistemático de manejo y aplicación de técnicas
que transformaron profundamente el paisaje".37
Un punto de vista similar es adoptado por Luz Amanda Salazar al indicar que :"
...los conocimientos agrupados hoy bajo la denominación de ingeniería no
existieron como una rama autónoma, sino formando parte de una gran amalgama
gnoseológica, técnica y mítico-religiosa, pero ante todo práctica. No había
distinciones entre unas y otras actividades".38
Esta última afirmación es importante, no sólo para explicar aproximaciones a la
ingeniería civil indígena sino a cualquier otro tipo de tecnología autóctona, pues
como anota Lechtman : " Debemos reconocer que actividades como el hilado y el
tejido o el vaciado de vasos son tecnologías de poder. Es importante también
poner de relieve que en todos estos casos estamos ante tecnologías que nos
proporcionan información, pues la razón de sus productos iba en gran parte
determinada por el poder comunicativo de su mensaje. Con este enfoque, se
puede comprender que las tecnologías metalúrgicas de las Américas eran
tecnologías de poder -igual que los metales que produjeron los escudos y las
espadas de bronce y hierro del Cercano Oriente. La diferencia entre unas y otras
reside en como expresaban ese poder - coercivo en un caso, ideológico en el otro
36
El autor cita a: Poveda Ramos, Gabriel, Historia Social de la Ciencia en Colombia, Tomo IV, Ingeniería e
historia de las técnicas, Colciencias, Bogotá, 1993, p. 23.
37
El autor cita a: Mora Camargo, Santiago, "Prefacio", Ingenierías prehispánicas, Fondo FEN-Instituto
Colombiano de Antropología-Colcultura, Bogotá, 1990, p. 9.
38
El autor cita a: Salazar, Luz Amanda, En los orígenes de la ingeniería colombiana, Publicaciones Facultad
de Ingniería - Universidad Nacional de Colombia, Bogotá, 1988, p. 6.
40
-. Fue a través de las mismas tecnologías como se confirió el poder a aquellos que
lo impartían y controlaban”.39
Por lo anterior hay que llamar la atención sobre las interpretaciones de la
tecnología prehispánica y sus razones, fueran éstas utilitarias, de poder, de
compenetración mítico - religiosa o artísticas. Pero el propósito de este escrito no
es, obviamente, intentar ese análisis sino mostrar como, en sentido amplio, si
hubo una ingeniería prehispánica en Colombia y la argumentación de esta aserto
se basará, fundamentalmente, en dos manifestaciones de la ingeniería: la de
materiales y la civil.
En su vida cotidiana los indígenas prehispánicos, lo mismo que el hombre actual,
manipulaban cuerpos de la más variada índole, obtenidos de diferentes
materiales. Es decir echaban mano, con eficiencia, de los recursos.40 En América
no hubo implementos de hierro hasta la llegada de los europeos, pero se utilizaron
de metales como bronce, cobre y oro.
Los materiales usados por nuestros antepasados para sus utensilios, fueron de
origen mineral, vegetal y animal.41 La tecnología de los materiales tiene que ver
pues, con la utilización y manipulación de materiales y de manera notable con el
manejo de los metales o metalurgia, que lleva incluso hasta la minería. De otro
lado, la ingeniería civil se hace evidente en las construcciones (donde estaría
asociada con la arquitectura) y las intervenciones del paisaje. Estas se manifiestan
en las redes de caminos, en las modificaciones del suelo para fines agrícolas y en
los sistemas de manejo hidraúlico.
Así pues el territorio que hoy comprende Colombia ha sido ocupado desde hace
13000 años. Desde el inicio de la utilización de este espacio geográfico, la acción
de los grupos humanos ha tenido una fuerte incidencia sobre el paisaje y algunas
de las más grandes transformaciones fueron realizadas con anterioridad al siglo
XVI, es por eso que estamos de acuerdo con los diversos autores hablan de
Ingeniería Prehispánica en nuestro país.
En este contexto la palabra ingeniería se justifica si también aquellos procesos de
experimentación y acumulación de conocimientos que dieron como resultado un
procedimiento sistemático de manejo de aplicaciones técnicas que transformaron
el paisaje y propulsaron la evolución de estas sociedades cacicales.
39
El autor cita a: Lechtman, Heather, " Perspectivas de la metalurgia precolombina de las Américas",
Precolumbian American Metallurgy, Banco de la República, Bogotá, 1986, p. 26.
40
El ator cita a: Patiño, Víctor Manuel, Historia de la cultura material en la América equinoccial, Tomo V.
Tecnología, Instituto Caro y Cuervo, Bogotá, 1992.
El autor cita a: Plazas, Clemencia, et al., La sociedad hidraúlica zenú, Banco de la
República, Bogotá, 1993.
41
41
El término Ingeniería Prehispánica se hace claro cuando se estudian evidencias
como las siguientes:
•
•
•
•
•
•
•
•
Los actos arquitectónicos en el Alto Magdalena Agustiniano
Las redes de caminos prehispánicos y las ruinas en la Sierra Nevada de
Santa Marta
La estabilidad y dinámica agrícola en las sociedades amazónicas que
implicaban, además de la roza y la quema, la rotación de los campos más
que de los productos y la necesaria regeneración del bosque para mantener
la fertilidad
Los aterrazamientos artificiales y otras construcciones de uso agrícola en la
región Calima
El manejo hidráulico que los Zenúes hicieron de los ríos San Jorge y Sinú
Los campos circundados de Guarne
Las técnicas mineras indígenas, que perduran hasta nuestros días
Las avanzadas técnicas de la metalurgia prehispánica, incluídos desarrollos
autónomos como las técnicas de la cera perdida.42
Se ve pues que antes de la llegada de la ciencia occidental se contaba con una
buena base técnica local bien desarrollada, encaminada sobre todo a la
producción artesanal, a las obras arquitectónicas y de ingeniería, y a la realización
de tareas agrícolas. La conquista causó un serio desquiciamiento de la tradición
técnica local y llevó a una significativa pérdida de variedad; pese a lo cual la
tradición tecnológica nacional logró sobrevivir de algún modo u otro. Entre los
primeros cincuenta y cien años de la conquista se produjo un complejo proceso de
aculturación, que comprendió un mutuo intercambio de conocimientos, productos y
técnicas. Hay que recordar que la conquista se realizó durante el Renacimiento,
cuando la revolución científica se encontraba en su embrión, y que la colonización
de América habría de hacer importantes aportes a la transformación de Europa
durante el período de la revolución científica.
La contribución de los negros
El aporte de la raza negra a la formación de nuestra cultura es ancho y profundo
en la mayoría de sus manifestaciones, sin embargo en el aspecto científico y
tecnológico fue bastante limitado43. De acuerdo con Jaramillo Uribe en el origen
42 El autor cita a:
Ingenierías prehispánicas, Santiago Mora (ed.), Fondo Fen, Bogotá,
1990. Precolumbian American Metallurgy, Clemencia Plazas (ed.), Banco de la República,
Bogotá, 1986.
Echavarría, A., "Metalurgia Prehispánica en América", Informetal, Nos 30, 31 y 32, 1992.
Espinoza, Iván D. y Duque Marcela, "La explotación aurífera en la Antioquia
Prehispánica", Informetal, Nos. 36 y 37, 1993.
43 El autor cita a: Nieto Arteta, Luis Eduardo, Economía y cultura en la historia de
Colombia, Tiempo Presente, Bogotá, 1975.
42
tribal africano de la población colombiana, predominan los tipos de origen
septentrional y los congoleses….44
Los pueblos de Guinea, de la cuenca de Senegal, del Níger y del Sudán dieron
nacimiento a culturas de muy alto grado de desarrollo. Conocieron la ganadería
vacuna, el uso del camello, el trabajo del hierro y el bronce, la manufactura de
tejidos y tuvieron un arte (esculturas de Benin y Dahomey), una religión y una
organización política compleja. En sus áreas se formaron imperios como el Malí y
el Songoi y sus contactos con el norte de Africa llevaron hasta ellos influencias del
Islam. Otras culturas, como las de los pueblos congos, hotentotes y bosquimanos,
practicaron la agricultura de azada y la ganadería vacuna, y conocieron la técnica
del hierro, pero no alcanzaron el refinamiento de las culturas septentrionales. Pero
todo esto se perdió con la trata y a pesar del influjo negro en la economía y la
sociedad, su incidencia tecnológica y científica es irrelevante.
La tradición científica y tecnológica
Las condiciones tecnológicas impuestas en la conquista y completadas en la
colonia perduraron hasta la llegada de la Ilustración en la segunda mitad del siglo
XVIII, que precipitó el inicio de los movimientos independentistas.45 Después de la
Independencia la situación no varió mucho en el aspecto tecnológico hasta 1840,
pues antes de la primera mitad de esa década no existía en la Nueva Granada ni
la ingeniería civil moderna ni una base económica que la sustentara, a pesar de la
presencia esporádica de técnicos extranjeros.46. A mediados del siglo, esta
situación comenzó a cambiar. Hacia finales de la década de 1830 Lino de Pombo,
José Ignacio de Márquez y el general Herrán argumentaron a favor de las obras
publicas utilizando ingenieros nacionales. Con el ascenso de Mosquera a la
presidencia en 1845, aumentaron estos programas y ya durante la década de
1850, el concepto de ingeniería como profesión comenzó a propagarse dentro de
las clases dirigentes del país. Durante las décadas de los 70 y 80 el inicio de la
construcción de ferrocarriles dió a los jóvenes ingenieros del Colegio Militar
mayores oportunidades para ejercer su tarea profesional, pero hasta entonces
Colombia se encontraba inequívocamente en una relación colonial con respecto a
los centros científicos de Occidente 47.
44 El autor cita a: Jaramillo Uribe, Jaime, Ensayos sobre historia social colombiana,
Universidad Nacional, Bogotá, 1968.
45 El autor cita a: Silva, Renán, Universidad y sociedad en el Nuevo Reino de Granada,
Banco de la República, Bogotá, 1992, p. 443.
46
El autor cita a: Poveda Ramos, Gabriel, Minas y mineros de Antioquia, Banco de la
República, Medellín, 1981.
47
El autor cita a: Bateman, Alfredo D., "Historia de las matemáticas y la ingeniería",
Ciencia y Tecnología en Colombia, Fernando Chaparro y Francisco Sagasti (eds.),
Colcultura,
Bogotá, 1978, p. 107., Obregón Torres, Diana, Sociedades científicas en Colombia 18591936, Banco de la república, Bogotá, 1992.
43
En esta década personajes como Pedro Alcántara Herrán y Mariano Ospina
Rodríguez representan la élite ilustrada que trató de introducir una nueva
orientación técnica en la clase alta mediante la importación de instructores
extranjeros de ciencias y el envío de jóvenes de familias prestantes a los centros
científicos del exterior. En ambos casos, el interés declarado de la élite se
orientaba más a lo práctico, lo técnico y lo productivo que hacia lo teórico, lo
científico y lo intelectual. Si bien no estaban en contra de promover la formación
de científicos creativos, su principal preocupación era la de crear un cuerpo de
técnicos y empresarios que pudieran ayudarles a ponerse al día,
económicamente, con los más avanzados países del mundo occidental. Era
necesario inculcar una inclinación científica hacia el conocimiento, haciendo más
énfasis en el desarrollo el razonamiento que en la memorización de verdades
concluyentes. Existía, por supuesto, un límite para el entusiasmo por el
racionalismo científico. Los conservadores neogranadinos rechazaban
vigorosamente los aspectos ateo - materialistas de la Ilustración occidental. En su
calidad de élites tradicionales, si bien en vías de modernización, deseaban
adueñarse sólo de aquellas ideas nuevas que consideraban necesarias para el
progreso económico de su país48.
Por ello resulta tan característico y sui generis ese sincretismo colombiano, esa
modernización en contra de la modernidad, que permitirá en los primeros decenios
del siglo avanzar en el terreno infraestructural sin variar sustancialmente la
concepción tradicionalista o la visión del mundo y la ideología, que desde la firma
del Concordato de 1887 estuvo sometida al control de la iglesia 49.
La Sociedad de Naturalistas Neogranadinos se creó en 1859 y sus relizaciones,
aunque escasas, están documentadas, su existencia se debió en gran parte a la
labor del doctor Ezequiel Uricoechea.
Durante las décadas de los 70 y 80 el inicio de la construcción de ferrocarriles dió
a los jóvenes ingenieros del Colegio Militar mayores oportunidades para ejercer su
tarea profesional, pero hasta entonces Colombia se encontraba inequívocamente
en una relación colonial con respecto a los centros científicos de Occidente50.
El autor cita a: Safford, F., El ideal de lo práctico, El Ancora Editores, Bogotá, 1989.
El autor cita a: Corredor, Consuelo, "Modernismo sin Modernidad", Controversia, No
161, Bogotá, 1990.
Parra, Lisímaco, "Modernidad y Ciencia", Estructura Científica, desarrollo tecnológico y
entorno social, Misión de Ciencia y Tecnología, Vol. 2 , Tomo II, MEN-DNP-FONADE,
Bogotá, 1990, p. 561.
50
El autor cita a: Poveda Ramos, Gabriel, "Los ferrocarriles y la ingeniería", Revista
Universidad de Antioquia, No 206, Oct-Dic, 1986, p. 5.
Obregón Torres, Diana, Sociedades científicas en Colombia 1859-1936, Banco de la
república, Bogotá, 1992.
48
49
44
Por esa época existían ya la Facultad de Matemáticas e Ingeniería de la
Universidad Nacional en Bogota, la Facultad de Ingeniería de la Universidad del
Cauca y la Escuela de Minas de Medellín. Los ingenieros antioqueños eran lo
suficientemente numerosos como para mantener una comunidad científica, la cual
tenía unas tendencias profesionales muy contrastantes con las de los ingenieros
del oriente del país, quienes dominaban la Sociedad de Ingenieros de Bogotá.
Estos eran predominantemente burócratas, por su residencia en Bogotá tenían la
pista de los empleos técnicos gubernamentales como la topografía, la
construcción o la inspección de obras públcas y el magisterio. De otro lado los
ingenieros de Antioquia Cauca eran menos politizados y burocráticos, confiaban
más en la empresa privada, muchas veces la suya propia.
Otra diferencia entre estas concepciones de la ingeniería estribaba en que
mientras los ingenieros de provincia pensaban en soluciones autóctonas para los
problemas nacionales, como el cambio por materiales nativos o los inventos
mecánicos adaptados localmente, los ingenieros de Bogotá lucían su más grande
originalidad en las matemáticas puras.
Todas estas diferencias empezaron a diluirse después de la Segunda Guerra
Mundial con la expansión de la ingeniería y el surgimiento de Facultades de
Ingeniería, en muchas de las ramas, en todo el país51.
TENDENCIAS
En la actualidad existe en Colombia más de 69 especialidades de la ingeniería con
las más diversas orientaciones en lo científico, lo tecnológico y lo metodológico.
Aunque el ICFES y la Asociación Colombiana de Ingeniería tratan de unificar
criterios, es tal la multiplicidad en el tamaño, calidad y estilo de trabajo, que quizás
apenas la autoevaluación y la acreditación contempladas en la ley 30 de la
educación superior, lograrán clasificar adecuadamente las carreras de ingeniería.
Además las políticas de Ciencia y Tecnología, especialmente en lo relativo a la
formación de doctores, y los nuevos rumbos de la tecnología mundial, decantarán
sin duda esa enorme variedad, que es el signo predominante de la ingeniería
actual en Colombia.
A partir del siglo XIX se ha hecho cada vez más patente la interacción entre el
sistema general de la sociedad y el subsistema tecnológico. La sociedad impulsa o
deprime el desarrollo de la tecnología mediante factores económicos,
orientaciones políticas, previsión de recursos humanos, expectativas de utilización,
51
El autor: Safford, Frank, "Orígenes de la profesión de ingeniero en Colombia",
Ciencia y Tecnología en Colombia, Fernando Chaparro y Francisco Sagasti (eds.),
Colcultura, Bogotá, 1978, p. 57.
45
y aún las actitudes conductuales de los individuos. Se comprende así que
cualquier análisis prospectivo de la ingeniería pasa por una mirada a las
tendencias tecnológicas globales más importantes, entre las cuales están las
siguientes:
•
•
•
•
•
•
La consolidación de la onda electrónica en el siglo XX, que ha permeado
todas las áreas del conocimiento y las diferentes aplicaciones de la
producción y los servicios. Se manifiesta en continuo reemplazo de
mecanismos por automatismos cibernéticos, etc.; esto seguirá teniendo un
impacto en la economía, en la industria, en los procesos de manufactura,
en la formulación de los perfiles ocupacionales y en general, en la
organización del trabajo.
La profundización del uso de la informática en todas las dimensiones, lo
cual ha ampliado su radio de acción: desde las actividades empresariales
de alta dirección hasta las operativas; desde las de mercadeo hasta la
difusión global del conocimiento, la educación formal, no formal y virtual.
La aparición de redes de comunicación global, entre las cobran las de
computadores en todas sus modalidades (Internet). Por ejemplo en el
mercadeo, en la manufactura, en el transporte, en la industria, en el trabajo
de laboratorio, en la cultura, en la investigación, etc.
El surgimiento de tecnologías alternativas para impedir los crecientes
deterioros del ambiente, que tanto han preocupado al mundo actual. Si bien
el desarrollo industrial ha transformado la naturaleza en su conjunto, los
balances entre ventajas y desventajas a largo plazo comienzan a influir en
las alternativas de preservación del medio ambiente.
La consolidación de la onda tecnológica apoyada en la biología, de lo cual
la ingeniería genética o biotecnología son ejemplos. Esta tendencia se
fortalece con las permanentes simbiosis entre tecnologías de punta, lo cual
está dando lugar a nuevas áreas de trabajo y a la difusión de nuevos
productos.
La emergencia de metodologías blandas, que son simbiosis entre técnicas
sociales y aplicaciones científicas52.
Las anteriores tendencias tecnológicas indican que el ambiente en el cual
trabajarán los ingenieros del siglo XXI estará caracterizado por las industrias
basadas en el conocimiento, con productos de alto valor agregado, una gran
dependencia sobre la aplicación de la ciencia básica en el desarrollo de productos,
y un proceso de desarrollo - diseño - manufactura basado en elevados niveles de
simulación y de flujo de información.
52
El autor cita a: Cortés A., Carlos, "Planes y Prospectiva de la Facultad de Ingeniería
de la Universidad Nacional", Ingeniería e Investigación, NO 37, 1998, p. 111.
46
Esto no quiere decir que las industrias que tienen que ver con los recursos
naturales, la infraestructura y la calidad del ambiente vayan a debilitarse. No, es
que las economías avanzadas y en desarrollo en última instancia se basarán "en
el poder del cerebro" y las economías de escala y la automatización no serán
suficientes para sobrevivir. Además el rápido crecimiento de las tecnologías que
diseminan rápidamente el conocimiento y proporcionan fácil acceso a la
información y los datos alterarán la forma y posibilidad de la sustancia del trabajo
ingenieril en la próxima generación.
El ambiente en el siglo XXI será de constante innovación y velocidad con énfasis
en la calidad. La cultura corporativa demandará la búsqueda inflexible del aumento
de la productividad, para lograrlo, se ofrecerá un ambiente en el cual la gente se
reúne constituyendo equipos, que deben ser estimulados, habilitados y
recompensados.
El ambiente de trabajo será más exigente que hoy, debido a la economía de la
información. Dado que las fuentes de riqueza son el conocimiento y las
comunicaciones más que los recursos naturales y el trabajo habrá una dura
competencia que afectará la economía global. Para sobrevivir en esa atmósfera
cada uno tendrá que ser tan bueno como el mejor del mundo.
Sin embargo, ni el hardware ni el software son panaceas a nuestros problemas, y
los pueden resolver bien o mal. Su efecto depende de lo bien que utilicemos la
tecnología y sus fines. La revolución es controlable pero puede hacerse regresiva
si no la controlamos o lo hacemos mal. El futuro depende mucho de los problemas
que decidamos atacar y de lo bien que utilicemos la tecnología para
resolverlos53.[70].
Estas condiciones sociales y el ambiente de trabajo de los ingenieros- la
necesidad de comunicar, la velocidad a la cual ocurren los cambios, la presión
incesante para aumentar la competitividad - harán el ambiente futuro más áspero y
denso que cualquiera que haya visto hasta ahora.
Los ingenieros deberán exhibir excelentes habilidades técnicas, pero existe la
necesidad real de desarrollar conocimientos globales en las mentes de los
estudiantes de hoy: conocimiento de otras culturas, competencia en lenguas
extranjeras, idea sobre los tratados mundiales y las agencias internacionales.
La ética es fundamental por las consecuencias, cada vez más impactantes, de las
decisiones de los ingenieros en cualquier campo, quienes deberán ser capaces de
enfrentar el imperativo tecnológico y estar en capacidad de poner la dignidad
humana por encima del dios mercado y la voracidad neoliberal.
53
El autor cita a: Ackoff, Russel L., Rediseñando el futuro, Limusa, Mexico, 1995 p. 21
47
Las siguientes son algunas características generales, necesarias en los ingenieros
del futuro: habilidades de grupo, incluyendo colaboración y aprendizaje activo,
habilidades de comunicación, liderazgo, perspectiva en sistemas, entendimiento y
apreciación de la diversidad de las personas, apreciación de las diferentes culturas
y prácticas comerciales y el entendimiento de que la práctica de la ingeniería
ahora es global, perspectiva interdisciplinaria, compromiso con la calidad, la
oportunidad y el mejoramiento continuo, investigación de pregrado en experiencias
de trabajo en ingeniería, entendimiento de los impactos sociales, económicos y
ambientales en la toma de decisiones en ingeniería y ética54.
Que los ingenieros tengan estas características es apremiante porque el número
de ingenieros en el mundo se duplica cada 10 años55. La mayoría del aumento
ocurre en la cuenca del Pacífico y otros países asiáticos que han desarrollado
estrategias para ello. La población corriente y los datos de producción sugieren
que el número global de ingenieros en la próxima generación será, en su mayoría,
de origen asiático. La contribución de India será un factor significativo, pero la
contribución de Latinoamérica no se ha determinado a la larga56.
Lo que se anota de la ingeniería del futuro debe revertir la situación actual, en que
es una profesión invisible, los mayores "agentes de cambio de la civilización"
están impelidos a convertirse en actores reales y centrales de la construcción del
mundo que queremos.
El problema central en Colombia es el mismo del mundo, la capacidad tecnológica
disponible para superar los retos de una producción creciente, se instala en los
círculos del privilegio para aumentar las diferencias internas. Los últimos
desarrollos de la informática conviven con el analfabetismo, los rascacielos con los
tugurios, los tractores de alta potencia con las azadas y los automóviles último
modelo se desgastan en caminos de herradura. Existe tecnología celular para
unos pocos en tanto que no hay telefonía rural para muchos y las piscinas
suntuosas se construyen al lado de barrios de invasión sin agua potable ni
alcantarillado.
54
Eel autor cita a: Smith Jr., Clifford V., "La educación en ingeniería para la competencia en el siglo XXI",
Conferencia Mundial sobre educación en ingeniería y líderes en la industria, París, 1996, ACOFI, 1997, P.
175.
55
El autor cita a: Ferro B., Jesús, "Estrategias educativas para la ingeniería del año dos
mil", Visión de la Universidad ante el siglo XXI, Ediciones Uninorte, Barranquilla, 1996, p.
96.
56
El autor cita a: Clarke, R. W. and Kulacki, F. A., "International Engineering: Tins our Engineer School
Never Told You", Mechanical Engineering Education for Global Practice. Proceedings of the 1997 ASME
Mechanical Engineering Department Heads Conference, American Society of Mechanical Engineers, New
York, 1997, p. 27.
48
He ahí la tarea de nuestra ingeniería: estar al tanto, e incluso adelantarse, a los
últimos desarrollos mundiales sin olvidar las grandes necesidades básicas de
nuestro pueblo, las cuales deben satisfacerse sin atentar contra el ambiente y de
una manera eficiente y eficaz. Un enorme reto sin duda, por eso debemos tener
muy claro el rumbo que debemos fijar a nuestra facultad y el tipo de ingenieros
que se forma en ella.
2.2
Historia de la Electrónica
2.2.1 Historia de la Electrónica en el mundo57
Introducción
Gracias a la electrónica se llevaron a cabo los descubrimientos científicos que
tuvieron inmediata aplicación práctica y viceversa, las aplicaciones prácticas
fomentaron la investigación científica para resolver diferentes problemas, lo cual a
su vez abrió nuevos horizontes científicos.
Se reseña la curiosidad científica que ha tenido el hombre desde tiempos
inmemoriales por las propiedades de la electricidad
El conocimiento científico de la electricidad dio lugar, inmediatamente, a
aplicaciones tecnológicas importantes. Éstas incluyen al telégrafo, con el que el
hombre pudo comunicarse por medios eléctricos, y a las máquinas eléctricas, o
sea, motores eléctricos y generadores de electricidad. De esta forma, el hombre
tuvo a su disposición fuentes de corriente eléctrica de gran intensidad, hecho que
cambió drásticamente la vida, dando lugar a una revolución en la forma de vida de
la humanidad, cuyas consecuencias fueron la iluminación eléctrica y el teléfono,
entre otras.
Historia de la electrónica.
•
Nacimiento de la electrónica:
Como hacia el fin de siglo XIX ya se había inventado el micrófono, que transforma
una señal acústica en una eléctrica. Por otro lado, ya se había inventado el
audífono, aparato que transforma una señal eléctrica en una acústica. En este
sistema las voces se distorsionaban mucho, la energía con que se emitía la onda
era muy pequeña. Además, el hecho de que la fracción de energía que llegaba al
57
http://lectura.ilce.edu.mx:3000/sites/ciencia/volumen3/ciencia3/112/htm/electr.htm
http://www.cft.gob.mx/html/la_era/magic/es1.html
http://infodev.upc.edu.pe/ieee/La%20Rama/articulos/moran1.htm
http://www.airpower.maxwell.af.mil/apjinternational/apj-s/1trimes01/campbell.htm
49
receptor era muy pequeña, hacía difícil su funcionamiento para distancias
grandes. La solución más satisfactoria fue lograda una vez que se inventó el tubo
al vacío.
Desde el siglo XVIII algunos investigadores habían descubierto que si se calienta
una superficie metálica, ésta emite cargas eléctricas. Sin embargo, fue Thomas A.
Edison quien volvió a "desenterrar" este efecto en 1883, cuando trataba de
mejorar su lámpara incandescente. Este efecto, que se llamó "efecto Edison",
también recibe el nombre de termiónico. Fue el mismo Edison quien inventó un
dispositivo en el cual la carga eléctrica emitida por la superficie metálica caliente
(llamada cátodo) es recogida por otra superficie fría (llamada ánodo), lográndose
de esta forma una corriente eléctrica. En la figura 1 se muestra cómo Edison
construyó su dispositivo. Edison encerró los dos electrodos, el ánodo y el cátodo,
dentro de un tubo de vidrio al vacío que también utilizaba para elaborar sus
lámparas de iluminación.
Por otro lado, en el año de 1897 el físico inglés J. J. Thomson (1856-1940)
descubrió la existencia de una partícula eléctricamente cargada, el electrón.
Thomson demostró experimentalmente que el electrón tenía carga eléctrica
negativa. En el año de 1906 Thomson recibió el Premio Nóbel de Física por su
descubrimiento.
En 1899 J.J. Thomson estableció que las cargas que se liberaban al calentar la
superficie metálica eran electrones.
En 1903 el físico británico John Ambrose Fleming (1849-1945) fue el primero en
encontrar una aplicación práctica del efecto Edison. Fleming era asesor de una
compañía telegráfica y le habían encomendado la tarea de encontrar un mejor
detector de ondas electromagnéticas. L a compañía utilizó como detector de
ondas un cohesor, no muy eficaz. A partir de 1900, en algunos diseños de
receptores, se usaban cristales de galena o de pirita de hierro como detectores
que por cierto fueron las primeras componentes de estado sólido empleadas en
electrónica. Fleming recordó su trabajo anterior sobre el efecto Edison, y encontró
una solución en este tipo de lámpara eléctrica.
El avance más importante en el desarrollo de la electrónica fue dado por el físico
estadounidense Lee de Forest (1873-1961), en 1906, al introducir en el tubo al
vacío un tercer electrodo reticulado, llamado rejilla, que permite el paso de
electrones. Esta rejilla se coloca entre el cátodo y el ánodo, como se ve en la
figura 2. De Forest llamó a su dispositivo audión, aunque más tarde se le llamó
tríodo. Tuvo que trabajar con diferentes dispositivos antes de conseguir el tríodo.
El tríodo lo hace incorporar la señal y amplificar su intensidad.
A partir de 1907, hasta 1912, De Forest trabajó en el diseño de un sistema de
50
radio, muy rústico, el cual trató de vender a los aficionados de la radio y a las
fuerzas armadas. También formó una compañía para poder competir con la ATT
en comunicaciones de larga distancia. Su radio podía transmitir y recibir voces,
pero no pudo conseguir que sus triodos amplificaran en forma confiable.
Hacia 1912 De Forest había alcanzado cierto control en el comportamiento del
tríodo. Redujo la amplificación(el voltaje de la batería del ánodo). Esta reducción la
compensó conectando varios triodos.
Así construyó un amplificador, De Forest propuso su venta a la ATT. Cuando De
Forest hizo la demostración de su amplificador a la ATT en octubre de 1912, los
físicos de la empresa, Harold D. Arnold, Frank Jewett y Edwin Colpitts
inmediatamente se percataron de que ese sistema era lo que buscaban.
Dirigido por Arnold, la ATT inició un proyecto de investigación para entender y
dominar los principios físicos del funcionamiento del tríodo y así poder construirlo
eficazmente. En el transcurso de dos años Arnold y un grupo de 25 investigadores
y asistentes de la ATT transformaron el débil y no muy confiable audión, en un
amplificador muy potente y seguro. El tríodo así mejorado hizo posible que el
servicio telefónico abarcara de costa a costa a Estados Unidos.
Otras compañías hicieron progresos significativos y la electrónica con tubos al
vacío se desarrolló de manera impresionante de 1912 a 1932.
Durante la primera Guerra Mundial se usó mucho la radio y se construyeron tubos
al vacío en grandes cantidades. Se utilizaron en 1915, en la radiotelefonía
trasatlántica, para comunicar a Francia y Estados Unidos.
A principios de la década de 1930 se construyeron tubos al vacío con más
elementos entre el cátodo y el ánodo; éstos fueron el tetrodo, el pentodo.
•
Desarrollo de la Radio.
Un elemento crucial para el desarrollo de la radio fue el oscilador. Este circuito fue
inventado en 1913 por el físico estadounidense Edwin Howard Armstrong (18901954). Es un circuito basado en un tríodo, de cuya salida se toma una parte de la
corriente que se vuelve a alimentar a la entrada del tríodo, formando un circuito de
retroalimentación. El primer programa público de radio fue emitido en Inglaterra el
23 de febrero de 1920. Así nació radio.
En 1933 Armstrong inventó otro tipo de emisión de señales de radio: el de
frecuencia modulada (FM).
La transmisión por FM, iniciada comercialmente en Estados Unidos en febrero de
51
1941, comparada con la amplitud modulada (AM), tiene la ventaja de que sus
transmisiones no se alteran con las perturbaciones, ya sean atmosféricas o
producidas por el hombre, que afectan la amplitud de la onda pero no su
frecuencia. En el sistema de FM no se presenta el llamado fenómeno de
"estática", que es un ruido sistemático que se oye en emisiones de AM.
La radio como la conocemos en la actualidad fue la creación de tres hombres: Lee
de Forest, autonombrado "padre de la radio", cuya invención del tríodo hizo
posible el nacimiento de la electrónica moderna; Edwin Howard Armstrong,
inventor del circuito retroalimentador (y del oscilador) así como de la frecuencia
modulada, que forman la base de la transmisión y recepción de los sistemas
actuales de radio (y de televisión); finalmente, David Sarnoff, quien encabezó la
Radio Corporation of America (RCA).
•
Desarrollo de Televisión.
Hace alrededor de un siglo, varias personas empezaron a considerar la posibilidad
de enviar imágenes por medios eléctricos (o sea, lo que hoy en día hace la
televisión). En 1884, el alemán Paúl Nipkow solicitó una patente para un sistema
de televisión que él denominó "telescopio eléctrico". Este rústico aparato era
dispositivo electromecánico que utilizaba una fotocelda para transformar luz en
corriente eléctrica. La imagen no reproducía los detalles finos. Variaciones de este
se diseñaron hasta 1930 sin que realmente tuviesen éxito.
En una reunión de la Sociedad Roentgen, efectuada en Inglaterra en 1911, el
ingeniero eléctrico A. A. Campbell Swinton presentó un esquema de sistema de
televisión, que es el que se usa en la actualidad. La escena que se desea
transmitir se enfocaría sobre una placa hecha de material no conductor de
electricidad, por ejemplo de mica, la cual se encuentra dentro de un tubo de rayos
catódicos. Este tubo fue inventado a mediados del siglo XIX por William Crookes
para estudiar las propiedades de las corrientes eléctricas a través de gases. Para
el receptor, Campbell Swinton escogió un tubo de rayos catódicos diseñado en
1897 por Ferdinand Braun, de la Universidad de Estrasburgo, en ese entonces
parte de Alemania. Este tubo, llamado cinescopio, es de vidrio al vacío y tiene en
su fondo una pantalla de material fluorescente, como fósforo, que emite luz
cuando un haz de electrones incide sobre él.
A medida que el haz electrónico barre la superficie de la pantalla, ésta se va
iluminando punto por punto. Esta fue una idea de Campbell Swinton que casi
describe la actual tecnología de la televisión.
Campbell Swinton creó el diseño conceptual sobre el cual personas trabajarían.
Fue Vladimir Zworykin (1889-1982), un ingeniero ruso inmigrado a Estados Unidos
en 1919 quien construyó la primera cámara práctica. En 1924 mostró a la
52
compañía Westinghouse una versión primitiva, pero que funcionaba. Las
imágenes eran débiles y vagas, casi sombras. Los directivos de la empresa no se
impresionaron tampoco cuando Zworykin les mostró una versión mejorada en
1929.
A quien sí impresionó Zworykin fue a David Sarnoff, director de otra compañía, la
RCA Victor, quien creía en la promesa comercial de la televisión.
Zworykin fue contratado en 1930 por la RCA como director de investigación
electrónica y en 1933 finalmente convenció a Sarnoff de que su cámara, a la que
llamó iconoscopio (del griego iekon, imagen, y skopon, ver), y su cinescopio eran
satisfactorios. Campbell Swinton había propuesto que fueran de rubidio, pero
Zworykin descubrió que era mejor cubrir plata con óxido de cesio.
La RCA probó por primera vez un sistema completo en 1933. Transmitió imágenes
de 240 líneas a una distancia de siete kilómetros en Colligswood, Nueva Jersey.
Aumentaron el número de líneas; actualmente se usan 525. En 1938 la RCA tuvo
listo un sistema de televisión en funcionamiento. Por problemas burocráticos el
gobierno no aprobó la licencia de funcionamiento hasta julio de 1941. Durante los
años de la segunda Guerra mundial, científicos e ingenieros dirigidos por Zworykin
desarrollaron una cámara 100 veces más sensible que el iconoscopio, al terminar
la guerra, la RCA reinició sus trabajos en el campo de la televisión.
•
El Radar y la Batalla de Inglaterra.
Desde principios de la década de 1980, tanto Gran Bretaña como Francia
continuaban un programa muy importante de desarme que habían empezado la
década anterior. Alemania, contraviniendo lo estipulado en el Tratado de Versalles
inició, con el advenimiento del régimen nazi, un amplio programa de rearme. En
pocos años se desarrolló un arma muy poderosa para su época, el bombardeo
aéreo. O cada país desarrollaba un cuerpo de bombarderos aéreos, o se llevaba a
cabo un desarme general. Gran Bretaña optó por esto último, pero no Alemania.
En la década de 1930 fue muy popular el concepto del rayo de la muerte: podía
causar incapacidad física, mental y aun la muerte. Durante dicha década hubo
buen número de personas que pretendieron haber inventado y construido
dispositivos que producían diferentes tipos de rayos. Análisis mostraban que
siempre había algún truco.
Se construyó un pequeño sistema acústico, que daría una señal cuando recibiera
los sonidos producidos por los aviones, no era funcional ya que no distinguía entre
el ruido producido por el atacante y otros sonidos, automóviles, animales.
H. E. Wimperis, jefe de Investigación Científica e Industrial del Ministerio, llamó al
53
doctor Robert Watson Watt, físico y director del Laboratorio de Investigación de
Radio y le preguntó sobre el prospecto de desarrollar algún rayo de la muerte.
Watson Watt regresó a su laboratorio y propuso lo siguiente al doctor Arnold
Wilkins, físico y ayudante suyo: calcule la cantidad de potencia de radiofrecuencia
necesaria para elevar la temperatura de 4 litros de agua de 35.5º C a 41ºC a una
distancia de 5 km y a una altura de 1 kilómetro. Su cálculo mostró que se
necesitaba generar una potencia enorme era claro que no era factible un rayo de
la muerte por medio de la radio.
Wilkins le dijo a Watson que los ingenieros de la Oficina de Correos se habían
dado cuenta de perturbaciones en la recepción de muy altas frecuencias cuando
algún avión volaba en la vecindad de sus receptores. Esta observación (enero de
1935) dio lugar al inicio de una serie de hechos que culminaron con la invención
del radar.
Se inició la verificación experimental, que se encomendó a Wilkins, quien con su
rudimentario equipo pudo detectar y dar la trayectoria que había seguido un avión.
Los primeros aspectos que resolvieron fue la presentación visual de la información
recibida, emplearon un tubo de rayos catódicos.
Se le hicieron muchas modificaciones para que pudiera detectar tanto la distancia
a la que se encontraba un avión, sino también su altura. La mayor parte del
sistema estaba completo en septiembre de 1938, cuando ocurrió la crisis de
Munich.
Se instalaron en los aviones ingleses dispositivos electrónicos que al recibir la
onda enviada desde tierra emitían a su vez una señal especial que los identificaba
como amigos.
En agosto de 1939, tres semanas antes del inicio de la segunda Guerra Mundial,
Gran Bretaña contó con un sistema de detección de aviones. Con ayuda del radar,
los ingleses podían detectar la salida de los aviones alemanes desde sus bases
situadas en países conquistados, como Francia y Bélgica.
•
Integración de chips, computadoras...
El transistor, se empezó a utilizar a finales de la década de 1940, se consideró en
su época como una maravilla de lo compacto, comparado con el tamaño de los
tubos al vacío. A partir de 1950 el tamaño de los dispositivos electrónicos se ha
reducido. En 1960, se empezó a usar la palabra microelectrónica, un bloque (chip)
de silicio de un área de 0.5 cm² podía contener de 10 a 20 transistores con varios
diodos, resistencias y condensadores. Hoy en día tales bloques pueden contener
varias docenas de miles de componentes.
54
A medida que la microtecnología electrónica se desarrolló, se aplicó a
computadoras comerciales. Se diseñaron diferentes dispositivos portátiles como
las calculadoras.
Cada componente que se usaba en un circuito electrónico estaba hecho de
materiales que tuviesen las características requeridas para su funcionamiento. Se
utilizó el tungsteno para los cátodos de un tubo al vacío, cerámica para
condensadores, carbón para resistencias.
Hacia mediados de la década de 1950 se construyeron circuitos electrónicos en
laboratorios industriales de dos compañías estadounidenses, Texas Instruments y
Fairchild Semiconductor. De esta manera se han construido un sinnúmero de
aparatos y dispositivos microelectrónicos que distinguen la época en que vivimos:
relojes de mano, robots, microcomputadoras y otros.
Desarrollo de la electrónica en el mundo.
En computación, el hardware configurable, la computadoras ópticas y la
computación molecular. En las computadoras ópticas haces de luz remplazan a
las conexiones metálicas (de cobre). Estas serán de mayor capacidad, más
rápidas, de menor consumo energético y ocuparan menos espacio.
En transporte terrestre, los trenes voladores MAGLEV ( Magnetically Levitated
Vehicles), los automóviles eléctricos y electrónicos, y los automóviles inteligentes
serán las tecnologías responsables del desplazamiento rápido y seguro de las
personas. Los trenes voladores son vehículos que corren a velocidades cercanas
a los 500 Km/h. Electroimanes de gran potencia se usan para generar las fuerzas
de suspensión, conducción, tracción y frenado del tren. El tren japonés HSST con
suspensión magnética repulsiva, y el Transrapid alemán con suspensión
magnética atractiva, son dos prototipos MAGLEV que en la práctica han
demostrado que velocidades cercanas a los 500 Km/h son posibles.
En los automóviles eléctricos, los motores de combustión son remplazados por
motores eléctricos alimentados por baterías recargables. Estos automóviles
eléctricos son más eficientes (en términos de energía/distancia) y más limpios (no
emiten gases contaminantes) que los vehículos con motores de combustión. Estos
surgen como una respuesta necesaria a la contaminación ambiental y al
agotamiento de las reservas mundiales de petróleo.
En los automóviles electrónicos, las conexiones mecánicas son remplazadas por
cables eléctricos que conectan las diferentes partes del vehículo. Los automóviles
inteligentes son vehículos capaces de cooperar con el conductor (copiloto
automático) o capaces de asumir todas las funciones del conductor (piloto
automático).
Estos
vehículos
vendrán
55
equipados con sistemas de navegación basado en satélites (sistemas GPS), con
video-cámaras para "ver", con micrófonos para "escuchar" y con
parlantes para "hablar".
Junto con los automóviles inteligentes se tendrán también las pistas inteligentes
que se encargan de conducir vehículos sin la necesidad de un conductor. Las
pistas inteligentes se han planteado como una solución a las insoportables
congestiones de tránsito vehicular. El Sistema de Autopistas Automáticas de Alta
Velocidad (Automated Highway System) que se viene desarrollando en California,
EE.
UU.
En el campo de las comunicaciones, las redes completamente ópticas se
impondrán como la tecnología más eficiente para transmisiones intensivas en data
(voz, fax, video) entre millones de terminales. En teoría una fibra óptica simple
puede transmitir a una velocidad de 100 veces superior a la velocidad de
transmisión en cables de cobre.
La tecnología láser ha evolucionado rápidamente desde su comienzo a mediados
de 1950. El Sistema de Láser Aerotransportado (ABL) y Sistema Láser Basado en
el Espacio (SBL) son precursores de una clase enteramente nueva de armamento.
El aprovechamiento del láser para la desviación de escombros en orbita es algo
está en investigación.
La desviación con láseres de asteroides, meteoritos, y cometas es probablemente
la misión espacial internacional más importante para nuestro planeta: la Tierra, en
el siglo que comienza. La Tierra ha recibido impactos varias veces en el pasado y
recibirá impactos semejantes en el futuro.
Las máquinas inteligentes, los materiales inteligentes y el software inteligente
serán una realidad considerando la gran rapidez que tendrán los futuros
microprocesadores. Las máquinas inteligentes serán capaces de aprender, inferir,
pensar, juzgar, memorizar, recordar y mejorar de manera muy similar a la del ser
humano.
Los materiales inteligentes son aquellos capaces de modificar su estructura
interna de manera que no se dañen ante el efecto de sobrecargas (como
terremotos).
Se tienen las cámaras y video-cámaras digitales (no más revelado de fotos), las
cirugías laparascópicas computarizadas, los órganos artificiales, los robots que
harán actividades del hogar e industrias.
Ventajas y Desventajas del uso de la electrónica.
56
Ventajas
•
Desventajas
La igualdad entre hombres y mujeres se
daría, igualdad de oportunidades, no
habría trabajo que solo se ajuste para un
solo sexo.
•
Vida más fácil.
•
Mayor calidad y esperanza de vida.
•
Mayor eficacidad en industrias.
•
Mayor
control
amenazas.
•
•
•
de
problemas
•
Si cae en manos irresponsables será
una amenaza para la humanidad.
•
Los jóvenes se van haciendo muy
dependientes a esta tecnología.
•
Decaería la innovación debido a la falta
de creatividad.
•
Una sola falla en la elaboración de
equipos provocaría serios daños.
•
Los
equipos
supervisados.
•
Solamente favorecería a personas con
alto nivel intelectual.
•
Los empleos se reducirían.
•
La especie tenderá a reducirse.
•
Podría
haber
contaminación
desechos energéticos.
•
Lo anterior desencadenaría catástrofes
virus
u
otros
problemas
como
sobrecalentamiento de la tierra.
y
Se evitarían errores que se dan tanto en
la medicina como en otras áreas.
Los
estudios
de
protección
y
preservación de la naturaleza tendrán
mejores herramientas para protegerla.
Uso de esta tecnología en la agricultura
favorece un mayor control de plagas.
•
Facilidad en la extracción de recursos.
•
Búsqueda de fuentes de energía y
aprovechamiento al máximo de esta.
tienen
que
ser
con
Usos comunes de la electrónica.
•
Automatización de oficina.
•
Equipo para telecomunicaciones .
•
Circuitos modulares.
•
Microcomputadoras
•
Robots.
•
Instrumentos médicos.
•
Equipo de control y seguridad.
•
Transmisión de datos.
•
Sensores para aplicaciones industriales.
•
Equipo de pruebas.
Conclusiones
57
El ser humano ha hecho una travesía a lo largo del desarrollo del
electromagnetismo, en la época que existía una absoluta curiosidad científica por
los fenómenos naturales, hasta llegar a la actualidad, en donde es parte sustancial
de una poderosa industria tecnológica internacional. La industria electromagnética
fue la primera que se desarrolló a partir de bases completamente científicas.
Se ha descrito con detalle la relación que se ha dado entre el trabajo científico,
que consiste en el descubrimiento y estudio de los fenómenos naturales, y la
tecnología, que da lugar a la aplicación práctica de los conocimientos obtenidos
por la ciencia. Esta relación no es ni directa ni lineal, ya que una vez que se
intenta hacer alguna aplicación, en la mayoría de los casos resulta que se
presentan problemas de diversa índole que requieren más investigación, lo que a
su vez mejora la tecnología. Por tanto, esta retroalimentación ha inducido mejores
productos, y ha motivado investigaciones científicas que han abierto nuevas
ventanas sobre el misterio de la naturaleza.
Una característica importante que ha ayudado al progreso de la rama
electromagnética es la existencia de laboratorios industriales, que también existen
en otras ramas científico-tecnológicas. Podemos afirmar que una característica de
los países más avanzados es que poseen laboratorios industriales.
En la actualidad no podríamos imaginarnos vivir sin electricidad. La historia de la
electrónica constituye una lección de grandes proporciones sobre el desarrollo de
la humanidad.
2.2.2 Historia de la electrónica en Colombia.
Los esfuerzos que desde los inicios de la década del 80 han venido realizando
preclaros exponentes de las nuevas generaciones de ingenieros electrónicos y
electricistas, por crear una industria electrónica nacional, han tenido hasta ahora
muchos tropiezos y han sido infructuosos. Los pasados 15 años han sido testigos
del surgimiento de cientos de pequeñas empresas que aspiraban a consolidarse
en su ramo, pero hoy día las que subsisten apenas si han logrado crecer.
La industria electrónica nacional está abocada a enfrentar las mismas dificultades
a las que está sometida en el país toda la pequeña y la mediana industria,
dificultades que se pueden resumir en:
1. Escasez de créditos o intereses confiscatorios en caso de que se consigan.
2. Ausencia de políticas de fomento por parte del Estado, aún en la época anterior
a la apertura económica.
Además, la industria electrónica debe afrontar otras dificultades, propias de su
naturaleza, tales como:
58
1. Dificultad para conseguir internamente los componentes electrónicos
debido a lo reducido del mercado.
2. Dificultad para conseguir las herramientas necesarias para la I&D, tales
como programas de simulación, programas CAD y sistemas de desarrollo
para microprocesadores y microcontroladores.
3. Dificultad para conseguir la información técnica actualizada, en especial los
manuales de los fabricantes de semiconductores.
4. Deficiente calidad de los componentes metal mecánicos fabricados en el
país, como cajas y chasis.
La apertura facilitó la entrada al país de productos que en algunos casos
resultaron, con respecto a los producidos acá, más económicos o de superior
calidad o ambas cosas, ejemplos de tales productos fueron los controladores
digitales de procesos, los indicadores digitales de temperatura para múltiples
termopares, los variadores de velocidad para motores eléctricos, los reguladores
de voltaje y las UPS's.
Algunas empresas pasaron de ser fabricantes a ser distribuidoras de esos mismos
equipos pero importados.
De todas maneras, según el segundo censo realizado en 1992 por la Asociación
de Entidades del Sector Electrónico - ASESEL, en el país existen 194 empresas
fabricantes, que se desempeñan en el campo de la electrónica profesional, el que
comprende productos no de consumo masivo sino especializados, en donde es
más fácil competir. Ejemplos destacados de tales productos fabricados en el país
son los siguientes: alarmas antirobo para vehículos y edificaciones, reguladores de
voltaje, inversores, cargadores de batería, UPS's, terminales de consulta de saldos
bancarios, controles para acceso de personal, lectores de banda magnética,
pequeñas centrales telefónicas, material didáctico para el aprendizaje de la
electrónica, circuitos impresos de doble cara con hueco metalizado y teclados de
membrana.
Casi todas las empresas del sector electrónico profesional son pequeñas, pero
revisten un carácter nacional, derivado principalmente del hecho de cumplir aquí
todo el proceso de producción, incluyendo las labores de investigación y desarrollo
de los productos. En cambio hay otras empresas, por cierto muy pocas,
subsidiarias de compañías multinacionales que aquí solo se limitan a ensamblar
sus productos.
Según el censo ya citado, el 96 % de las empresas del sector electrónico se
concentran en las 3 principales ciudades: Bogotá, Calí y Medellín. El resto se
ubican en ciudades intermedias como Pereira y Popayán.
59
CAPITULO 3
3.1.
ACTUALIDAD
Actualidad de la Ingeniería
3.1.1. Actualidad de la Ingeniería el mundo
PANORAMA MUNDIAL
Uno de los grandes desafíos de los ingenieros colombianos, se halla en no perder
de vista la perspectiva mundial, y es la necesidad de ser competitivos a este nivel.
Para nadie es desconocido, que mundialmente se hallan soluciones a enormes
problemas, que no dejan de sorprender al hombre mismo.
A medida que crece la población humana, esta se interconecta y en cada situación
la ciencia y la tecnología se expanden a gran velocidad y la ingeniería exige cada
día más, doctos en el área para atender vitales necesidades.
Los procesos de la globalización están basados en la tecnología y por ello es
comprensible la función social de la ingeniería en el marco de la modernidad.
El rápido crecimiento de la población de los países del desarrollo, generalmente
colonizados en el sentido económico, cuando no militar, ha generado
desigualdades profundas. Se concentran los emporios de empresas, su amplia
producción y los grandes capitales para beneficio de pocos ciudadanos, mientras
aumentan los obstáculos para mejorar la calidad de la mayoría. 58 El 70% de la
población mundial genera el 7% de la producción industrial en manufacturas, el
40% de la gente recibe el 5.2% del total producido en el mundo, mientras el 20%
tiene el 71.3%.
Es decir, la pirámide de producción tiene una base amplia en pocos países, la
oferta extranjera aumenta en los pueblos que menos producen, porque tienen
importaciones considerables, economías débiles y poco poder adquisitivo.
La globalización presupone la realización del conocimiento en bienes y servicios
de valor agregado, distribuidos y fortalecidos por cadenas industriales y sus filiales
en varios países, la mayoría corresponde a países industrializados y de reciente
industrialización. Las condiciones de comercialización de productos, planeación,
productividad, calidad, precio, diseño, tecnología y otros factores, están siendo
fundamentales para los nuevos sistemas económicos, en donde los avances en
ciencia y tecnología permitirán futuros distintos a las realidades actuales, y la
ingeniería continuará siendo parte fundamental de las cadenas productivas.
58
V, Sonia, HERNANDEZ, Silvana, Los grandes bloques mundiales. Revista de la facultad de
ingeniería.UNAM, Vol. 47 Marzo de 1997.
60
En la oferta y la demanda están ligados tanto quienes proporcionan la mayor parte
de la materia prima, como los poseedores de la tecnología, los modernos
procesos industriales, las corrientes en investigación y desarrollo, patentes, las
normas internacionales, la producción de energía, alimentos, inversiones y mejor
nivel de vida. La diferencia de bienes y servicios en distintas sociedades y la
capacidad de compra son tan muy marcadas.
3.1.2 Actualidad de la Ingeniería en Colombia.
LA CIENCIA Y LA TECNOLOGÍA EN COLOMBIA59
En nuestro país la historia de la ingeniería se remonta a la época precolombina y
la primera escuela de ingeniería se abrió en Medellín, en 1814, poco después de
que la ingeniería se consolidara como profesión, lo cierto es que el avance de la
ingeniería se dio apenas en la segunda mitad del siglo XX.
La escasez en los planes de formación en el país obedece a diversas razones.
-
-
-
Los primeros profesores se formaron en Europa y Estados Unidos de esa
manera, los modelos iniciales de formación de Ingenieros en Colombia
fueron copias más o menos fieles de aquellos modelos tradicionales.
Las políticas de formación profesional de ingenieros, cambian de un
gobierno a otro, dado que en su agenda no ha sido una prioridad la
formación de buenos ingenieros y menos aún el fomento de la ciencia y la
tecnología.
Estas políticas de formación de ingenieros, de apoyo al desarrollo de la
ciencia y la tecnología, y de soporte a la educación están limitadas y son
impuestas por los organismos de crédito y financiamiento internacional
(FMI, BID y Banco Mundial), entidades que impulsan y determinan
políticas generales, en todos los campos (incluida la educación), para los
países en vías de desarrollo.
Las nuevas rupturas en ciencia y tecnología empezaron a darse después de la
Segunda Guerra Mundial, cuando entraron gran número de procesos y nuevos
equipos asociados a empresas en nuevas ramas de la industria, que se
consolidaron en la década de 1960, época en la cual egresaban de las facultades
del país apenas unos 210 ingenieros por año.
Desde el punto de vista de la política de ciencia y tecnología, el modelo
colombiano adoptado en aquellas décadas era similar al imperante en América
Latina. Se Consideraba que la ciencia y la tecnología debían fortalecerse,
59
VALENCIA, Asdrúbal. La Ciencia y la tecnología en Colombia. Ciencia y tecnología y sociedad. CESETU de A. Medellín, 1997.
61
haciendo énfasis en la capacidad de investigación, con la esperanza de que esta
se reflejaría en tecnología para el sector productivo. En un enfoque simplista que
falló por múltiples factores, como los económicos y los inherentes al proceso de
maduración de las innovaciones.
A partir de entonces la tendencia tecnológica es hacia la modernización de
industrias y ramas ya antiguas. Pero a mediados de la década aparecen nuevas
industrias, casi todas de elevado nivel tecnológico, y casi todas propiedad
extranjera, o bajo control extranjero. En 1967 un decreto pone la transferencia y el
desarrollo de tecnología bajo el control del gobierno. Entonces se piensa que el
problema central para el desarrollo es tecnológico y no científico, y se busca
fortalecer la capacidad de negociación elaborando la selección y evaluación
tecnológica. Este enfoque tiene los serios problemas filosóficos ya planteados. El
tratar de modernizar sin buscar la modernidad, situación que persiste y que pude
resumirse en la frase de García Caclini “Somos consumidores del siglo XXI y
ciudadanos del siglo XVII).
Como hemos señalado para impulsar el desarrollo científico y tecnológico de
Colombia, en 1968 se creó el Fondo Colombiano de Investigaciones Científicas y
Proyectos Especiales “Francisco José de Caldas, COLCIENCIAS, como un
establecimiento público descentralizado adscrito al Ministerio de Educación. A su
vez esta institución servia de Secretaría Ejecutiva del CONCYT Consejo nacional
de Ciencia y tecnología, máximo organismo consultivo del gobierno en esta
materia, creado también en 1968, pero el cual nunca llego a ningún papel
importante.60
La acción de COLCIENCIAS se desarrollo en varias fuentes como: La financiación
de proyectos de investigación en las diversas áreas de las ciencias, el auspicio al
intercambio de científicos, la realización de seminarios especializados, el
otorgamiento de distinciones como el premio nacional de ciencias, el apoyo a los
comités de investigación en las universidades.
En 1989 creó el gobierno la llamada Misión de Ciencia y tecnología, Junta de
Académicos que estudio las perspectivas de la ciencia y tecnología en el país,
estableciendo recomendaciones para el fomento del desarrollo científico y
tecnológico para Colombia en los años siguiente. El Consejo Nacional de Política
Económica y Social COMPES es el organismo principal asesor del Gobierno
Nacional en todos aquellos aspectos que se relacionan con el desarrollo
económico social del país.
Desde 1988 empezó a debatirse en el Congreso un Proyecto Ley, por el cual se
dictan disposiciones para el fomento de la investigación científica y el desarrollo
60
CERNUSCHI, Félix. Criterios modernos para la formación de ingenieros integrados. Número 3
Montevideo, junio 1.999. Sitio. WWW.fing.edu.uy/cey/.
62
tecnológico. Este proyecto se convirtió en la ley 29 de febrero de 1990 conocida
como la ley Marco en Ciencia y tecnología que fue el eje de la Reforma Jurídica
adoptada. Ella reconoce la necesidad de la intervención del estado en la
promoción y orientación del adelanto científico y tecnológico.
Otros decretos ley consolidan la necesidad de un nuevo sistema de ciencia y
tecnología. Mediante el decreto 393 del 08 de febrero de 1991, se autoriza a la
nación y a sus entidades descentralizadas para asociarse con los particulares,
propiciando las corporaciones mixtas. Desde el punto de vista la ciencia y la
tecnología al año de 1991, expide varios artículos haciendo referencia a incentivos
para personas, e instituciones para que desarrollen y fomenten la ciencia y la
tecnología; promuevan la investigación y la transferencia de tecnología y
especialmente la investigación científica.
POLÍTICA NACIONAL DE CIENCIA Y TECNOLOGÍA
El objetivo general de esta política es integrar a la ciencia y la tecnología, los
diversos sectores de la vida nacional; buscando incrementar la competitividad del
sector productivo en el contexto de una política de internacionalización de la
economía y mejorar el bienestar y calidad de vida de la población colombiana.
Todo esto se sintetiza en unos documentos CONPES 2739.
Las políticas centrales son el fortalecimiento nacional de ciencia y tecnología, la
innovación, competitividad, desarrollo tecnológico, ciencia desarrollo social medio
ambiente y hábitat, integración de la ciencia y la tecnología a la sociedad
colombiana, seguimiento y evaluación de los programas de desarrollo científico,
tecnológico, inversión en ciencia y tecnología.
Los problemas centrales de esta política es la enorme desigualdad
socioeconómica entre los sectores de la sociedad. La organización de la vida
política colombiana; pero sin embargo proliferan relaciones propias de una
sociedad tradicional que moviliza un discurso americano. De hay nuestra
ingeniería esta incluso llamada adelantarse a los últimos desarrollos mundiales
pero sin olvidar las características y grandes necesidades básicas del país.
INGENIERÍA EN COLOMBIA
La carencia de apoyo a las ciencias, se vio reflejado en los primeros intentos por
hacer universidad, pues 1968 se creo COLCIENCIAS, como una entidad para
formar el desarrollo científico en el país, lo que demuestra que no ha realizado un
esfuerzo coherente y sostenido para crear una infraestructura científica y
tecnológica.
63
La Ingeniería Colombiana es escasa: no obstante ha hecho aportes significativos
al país; tales eventos se pueden describir en diversos niveles: A nivel de formación
están las actividades ingenieriles por la jerarquía y la creatividad. En el nivel uno
esta la investigación tecnológica científica, sobre nuevos procedimientos del
cálculo. En el nivel dos la creación de nuevos trabajos de proyectos y obras de
ingeniería. En el nivel tres obras proyectadas de ingenieros del nivel dos o del
mantenimiento de industrias establecidas. En el nivel cuatro la realización de
tareas de ensayos, mediciones, control, ejecutados por ingenieros investigadores
de alta formación.
Según el ICFES el porcentaje de titulo de ingeniería en 1976 era casi del 0% y las
maestrías no han pasado del 1%.61
A nivel de ambiente de trabajo para la ingeniería colombiana, se ve un clima
altamente inseguro por la obsolescencia de las empresas, la recesión.
Continuamente asesinan y secuestran ingenieros por lo tanto las obras civiles, las
telecomunicaciones, la distribución eléctrica, la ingeniería y la minería han sufrido
grandes atrasos.
LA INGENIERÍA COLOMBIANA Y MUNDIAL
Dentro de las ventajas hay coincidencia en que existe un mejor conocimiento del
medio geográfico y cultural y la exigencia de salarios de menos costos. Y dentro
de las desventajas hay cinco aspectos que resaltan como son: La debilidad del
país en ciencia y tecnología e investigación, para tecnología de punta, las
limitaciones financieras por el escaso acceso a créditos. La ingeniería extranjera
que tiene alianzas nacionales con los gobiernos de origen. En gestión tecnológica
las empresas presentan grandes debilidades de adaptación e innovación; los
sistemas de comunicación e información precarios y el no manejo de un idioma
extranjero y la poca estructura tecnológica, la privatización de empresas estatales
y la debilidad gremial.
NUEVAS FORMAS DE BUSCAR CALIDAD DE LA INGENIERÍA COLOMBIANA
La implementación del modelo económico neoliberal y la globalización de los
mercados, ha tenido efectos significativos en la vida empresarial colombiana y
exige nuevos retos a las organizaciones dedicadas a proyectos de ingeniería. Por
lo tanto se requiere la formulación de nuevos esquemas de financiación y
comercialización así como la capacidad ingenieril.
Con relación a la Universidad se reclama la maestría y doctorados en la planta
docente que eleven la formación académica.
61
COLCIENCIAS, Sistema nacional de Ciencia y Tecnología. Instrumentos jurídicos, Colciencias,
Bogotá.1991.
64
En gestión tecnológica una mayor capacidad, diseñando alianzas con firmas
extranjeras de esta manera progresando en la internacionalización. Se requiere al
igual de exponer de banco de datos, comunicaciones, e información inteligente.
3.2 Actualidad de la Electrónica62
Cuando se trata la actualidad y la prospectiva de la electrónica no se puede omitir
el tema de la microelectrónica, un sector considerado como el factor dirigente de la
industria electrónica
3.2.1 La Electrónica en el mundo
Los Equipos Electrónicos
La industria electrónica suministra a la sociedad, en principio, equipos que se
utilizan en el hogar, en la oficina, en la industria o en cualquier otro ámbito en
donde se desarrolle la actividad humana.
En 1992 las ventas de equipos electrónicos en el mundo fueron de 660.000
millones de dólares63, distribuidas de la siguiente manera:
o Procesamiento de datos 43 %
o Electrónica de consumo 22 %
o Telecomunicaciones 18 %
o Electrónica industrial 8 %
o Electrónica automotriz 3 %
o Otros 6 %
Como se aprecia en la tabla anterior, las 3 clases de equipos electrónicos de
mayor venta en el mundo representan en conjunto más del 80 % del mercado, y
corresponden en su orden a los computadores, los equipos de consumo y los de
telecomunicaciones.
Los computadores, por su parte, constituyen más del 40 % del mercado global de
equipos electrónicos, pero aclarando que esta cifra se obtuvo contabilizando
solamente los equipos, o sea el hardware, sin haber tenido en cuenta el mercado
de los programas (software), que hoy día es casi de igual volumen al primero. En
los últimos años el software ha venido adquiriendo una importancia creciente, bien
sea por haberse convertido en el cuello de botella en el desarrollo de muchos
productos, o bien sea por que las novedades en el campo del hardware no logran
despertar la acogida del publico hasta tanto no cuenten con el soporte lógico
suficiente (software), tal como acontece cuando se lanza al mercado un nuevo
microprocesador, o cuando aparece un nuevo dispositivo como el multimedia, o
62
Adolfo Mora Villate, Profesor Depto de Ingeniería Eléctrica Universidad Nacional
http://www.icfes.gov.co/revistas/ingeinve/No37/Art3.html
63 Cita el Autor: CURTOIS, Bernard. "CAD and testing of ICs and systems: Where are we going ?". Estudio
realizado para el Centro Nacional de Investigaciones Científicas (CNRS) de Francia. Grenoble. 1993.
65
cuando se mejora el desempeño de alguno de los periféricos, como sucede
cuando se eleva la resolución de los monitores.
La electrónica de consumo, que ocupa el segundo lugar en ventas de equipos,
suministra los aparatos asequibles a las grandes masas y que son utilizados en el
hogar para el entretenimiento y la cultura, como televisores, radios, grabadoras,
equipos de sonido, juegos, relojes y calculadoras.
El sector de las telecomunicaciones se remonta a los orígenes de la electrónica a
partir de la segunda mitad del siglo XIX, con la telegrafía primero y luego con la
telefonía y la radio. Hoy día las telecomunicaciones abarcan, además de los
sistemas tradicionales, nuevas tecnologías como la fibra óptica, los sistemas
satelitales y la telefonía móvil celular.
Mientras en el mundo las telecomunicaciones ocupan el tercer lugar en ventas de
equipos, en Colombia ocupan el primer lugar, sin tener en cuenta la electrónica de
consumo, según un estudio realizado en 198864.
A la par con el tradicional y permanente interés de la industria por elevar su
productividad, en las ultimas 3 décadas del siglo XX han surgido otros paradigmas
a nivel industrial, como los de aumentar la eficiencia energética y reducir la
contaminación ambiental. De la solución de estos problemas se ocupa, junto con
otras disciplinas, la electrónica industrial. Por ejemplo, para elevar la productividad
de las industrias de procesos, la electrónica industrial ofrece equipos como los
sistemas de control distribuido, los transmisores inteligentes y los analizadores en
línea; mientras que para elevar la productividad de la industria manufacturera
ofrece equipos como robots y sistemas de control numérico.
El último sector que figura en la tabla de equipos electrónicos es el de la
electrónica automotriz, que aunque todavía se cataloga por el volumen de sus
ventas entre los más modestos, es uno de los de mayor crecimiento. Los modelos
nuevos de los vehículos automotores incorporan, cada vez con mayor frecuencia,
sistemas microprocesados o sea microcomputadores de propósito especial) para
el manejo de sensores, indicadores, alarmas y especialmente para el manejo de la
inyección electrónica, que está desplazando al viejo carburador, permitiendo
aumentar la eficiencia del motor.
Los Componentes Electrónicos
Los equipos electrónicos se fabrican con insumos denominados componentes,
empleando un proceso que se inicia con la labor de soldar los semiconductores y
demás componentes sobre los circuitos impresos, para formar las tarjetas, y luego
64 MARTÍNEZ, Demetrio. "Visión general del sector electrónico en Colombia". Seminario sobre políticas y
experiencias en sectores económicos de tecnologías avanzadas en América Latina y en Colombia. Manizales.
1988.
66
seguir con el montaje de dichas tarjetas dentro de las cajas, quedando de esta
manera construidos los instrumentos
Los componentes electrónicos son de 2 tipos:
o Semiconductores o componentes activos
o Componentes pasivos
Los semiconductores pueden ser de 3 tipos: Circuitos Integrados, dispositivos
discretos y dispositivos optoelectrónicos.
Los componentes pasivos involucran una variada gama de dispositivos tales
como: circuitos impresos, resistores, condensadores, conectores, cables, fuentes y
tubos de rayos catódicos; estos últimos de uso todavía como pantallas en los
televisores y en los monitores de los computadores.
El mercado mundial de componentes electrónicos en 1992 fue de 160.000
millones de dólares (ver referencia (2)), distribuidos de la siguiente forma:
Semiconductores US $ 90.000 millones
Componentes pasivos US $ 70.000 millones
Del total de ventas de semiconductores, el 75 % corresponde a los Circuitos
Integrados, que son los dispositivos que encierran dentro de una misma cápsula
muchos transistores, variando su numero entre unas pocas decenas para el caso
de los circuitos lógicos más sencillos, hasta más de 16 millones para el caso de
las memorias de 16 Megabits. Circuitos que de otra manera tendrían que
construirse con elementos discretos ocupando grandes espacios e incrementando
proporcionalmente su costo y su vulnerabilidad.
La Microelectrónica
La microelectrónica es la tecnología de desarrollo y de producción de Circuitos
Integrados, con el fin de lograr empacar dentro de unas pastillas de silicio de unos
pocos centímetros cuadrados de extensión miles y hasta millones de transistores,
reduciendo cada vez más las dimensiones de estos transistores, que en el
momento actual pasan por el orden de las 0.5 micras.
Aunque en electrónica los diferentes sectores son interdependientes y se
complementan unos con otros, - por ejemplo el hardware requiere del software y
viceversa, los equipos electrónicos requieren de los componentes y estos a su vez
requieren de los primeros porque de otra manera no tendrían mercado, - sin
embargo, es un hecho, algunas veces aceptado tácitamente y otras veces
67
planteado explícitamente, que la microelectrónica constituye el factor clave, el
decisivo dentro de la electrónica.
Pero ¿por qué la microelectrónica constituye el factor dirigente de la industria
electrónica, siendo que su mercado apenas representa el 7 % del total? Porque
quien domine la microelectrónica esta en capacidad de dominar toda la industria
electrónica y por esa vía, bien sea los países independientes tratan de asegurar su
desarrollo autónomo y sostenido, o bien sea las potencias tratan de asegurar su
predominio sobre las demás. La carrera en la electrónica entre los países más
avanzados o entre las empresas más poderosas de esos países, radica en ver
quien saca primero al mercado la siguiente generación de memorias, o la siguiente
generación de microprocesadores de mayor velocidad y desempeño.
Siendo la electrónica una de las tecnologías más dinámicas, las compañías de
vanguardia deben innovar continuamente sus productos con el fin de no quedarse
rezagadas, ya que usualmente los equipos se vuelven obsoletos en pocos años,
como sucede por ejemplo con los computadores personales.
Paralelamente a este proceso de crecimiento de las memorias, se ha venido
presentando otro no menos espectacular, el de los microprocesadores. Mientras
los primeros microprocesadores producidos por INTEL en 1971, manejaban 4 bits,
operaban a una velocidad inferior a 1 megaciclo y contenían 2300 transistores, los
microprocesadores de hoy, como el Pentium, manejan 64 bits, operan a 100
megaciclos y contienen más de 3 millones de transistores
Entre las tecnologías de fabricación de Circuitos Integrados predomina la
tecnología CMOS con un 74 % del mercado, seguida de la bipolar con un 12 %.
De las restantes vale la pena mencionar la de arseniuro de galio, que por ser la
más rápida es la que se utiliza en altas frecuencias (como en telecomunicaciones),
pero todavía no se vislumbra ninguna tecnología que pueda disputarle el
predominio a la tecnología CMOS.
Como cada vez se hace más difícil con el proceso de fabricación actual
(fotolitografía), reducir las dimensiones de los transistores, se están ensayando
otras alternativas, como el montaje de varios chips dentro de una misma envoltura
y el empaquetamiento de las memorias en 3 dimensiones
Los costos que ahora acarrea el desarrollo de la microelectrónica se han elevado
tanto, que resultan onerosos aún para los grandes fabricantes, siendo esta la
razón de los múltiples convenios pactados en años recientes entre los gigantes
norteamericanos, japoneses y europeos para la Investigación y el Desarrollo ( I&D
) de nuevos productos, tal como el celebrado entre IBM, Toshiba y Siemens para
la I&D del chip de 256 Megabits a un costo de 1000 millones de dólares. Cifra esta
a la que se debe agregar otra inversión de aproximadamente 1000 millones de
68
dólares para el montaje de la planta de fabricación de tales chips, empleando
tecnologías de 0.3 a 0.35 micras.
Estado del arte y prospectiva de los equipos electrónicos
Al contrario de lo que sucede con las novedades en microelectrónica, que
usualmente pasan inadvertidas para el gran público que se beneficia de ellas, las
novedades en equipos si causan gran impacto y son las que más impresionan al
lego en la materia.
Las herramientas computacionales que se están perfeccionando para el
reconocimiento y la síntesis de la voz así como para el reconocimiento de
imágenes, y que involucran tanto hardware como software, prometen interesantes
logros en el futuro próximo. Con estas herramientas será posible librarnos de la
tiranía del teclado, se simplificara el manejo de aviones, helicópteros y vehículos
automotores, lo mismo que la operación de las plantas industriales, y se cumplirá
el sueño de incorporar visión en los robots.
Desde comienzos de los 80 varias compañías japonesas y europeas vienen
trabajando independientemente en la televisión de alta definición. Esta será sin
duda la televisión del siglo XXI, manejando, además, las señales digitalizadas e
integrada a un computador, de tal forma que será interactiva, permitiendo al
usuario escoger el programa deseado en cualquier momento, sin estar sometido a
los caprichos de la programación.
Las nuevas tecnologías están originando toda una revolución en el campo de las
telecomunicaciones, que ha causado un remezón en las tradicionales y a veces
paquidérmicas compañías del ramo, a las que les está brotando competencia por
doquier, gracias a la irrupción de tecnologías como la telefonía móvil celular, los
sistemas satelitales y la fibra óptica. Esta ultima aunque es menos popular que las
2 primeras, es la que ofrece mayor capacidad de transmisión, permitiendo enviar
por un mismo haz más de 10.000 conversaciones telefónicas o muchas señales
de video simultáneamente. La ultima generación de fibras ópticas, que emplea
amplificadores de fibra dopados con Erbio, puede transmitir más de 1000 km a la
fantástica velocidad de 100 Gigabits por segundo65.
La unión entre los computadores y las telecomunicaciones ha dado lugar a un
sinnúmero de aplicaciones, especialmente en los sectores de la banca y el
comercio, pero también en los campos de la educación y de la cultura gracias a
las redes de computadores, como la ya popular INTERNET. Esta unión también
ha hecho posible la oficina virtual, para lo cual solo se requiere de un computador
dotado de un módem.
65 El autor hace referencia a: DESURVIRE. "Comunicaciones ópticas: La quinta generación". Investigación
y Ciencia Marzo. 1992.
69
En las industrias de procesos se están usando desde la década pasada los
transmisores inteligentes, que son instrumentos de medición dotados de
microprocesadores, que por medio de programas (software) pueden realizar
funciones adicionales como: autodiagnóstico, linealización, compensación por
cambios en las condiciones de operación y control del proceso. Con la próxima
entrada en vigencia de la norma conocida como "bus de campo", se consolidara
este tipo de instrumentos, pero ya no transmitiendo en forma análoga sino digital y
obteniendo otras ventajas como: extensión del control distribuido por toda la
planta, menos posibilidades de degradación por ruido, empleo de menor cantidad
de cables en el sistema de control y posibilidad de interconectar entre si equipos
de diferentes fabricantes.
En la industria manufacturera se continuará con la tendencia a dotar a los robots
de sensores, especialmente para el reconocimiento de imágenes y de voz.
Las perspectivas para las industrias que se aferren a los sistemas tradicionales de
producción no son nada halagüeñas. Las industrias que no se modernicen, que no
incorporen las tecnologías avanzadas a sus procesos de producción, perderán
competitividad y estarán condenadas irremediablemente a desaparecer.
3.2.2 La Electrónica en la Colombia66
Los esfuerzos que desde los inicios de la década del 80 han venido realizando
preclaros exponentes de las nuevas generaciones de ingenieros electrónicos y
electricistas, por crear una industria electrónica nacional, han tenido hasta ahora
muchos tropiezos y han sido infructuosos. Los pasados 15 años han sido testigos
del surgimiento de cientos de pequeñas empresas que aspiraban a consolidarse
en su ramo, pero hoy día las que subsisten apenas si han logrado crecer.
La industria electrónica nacional está abocada a enfrentar las mismas dificultades
a las que está sometida en el país toda la pequeña y la mediana industria,
dificultades que se pueden resumir en:
1. Escasez de créditos o intereses confiscatorios en caso de que se consigan.
2. Ausencia de políticas de fomento por parte del Estado, aún en la época anterior
a la apertura económica.
66
MARTÍNEZ, Demetrio. "Visión general del sector electrónico en Colombia". Seminario sobre políticas y
experiencias en sectores económicos de tecnologías avanzadas en América Latina y en Colombia. Manizales.
1988.
70
Además, la industria electrónica debe afrontar otras dificultades, propias de su
naturaleza, tales como:
1. Dificultad para conseguir internamente los componentes electrónicos debido
a lo reducido del mercado.
2. Dificultad para conseguir las herramientas necesarias para la I&D, tales
como programas de simulación, programas CAD y sistemas de desarrollo
para microprocesadores y microcontroladores.
3. Dificultad para conseguir la información técnica actualizada, en especial los
manuales de los fabricantes de semiconductores.
4. Deficiente calidad de los componentes metal mecánicos fabricados en el
país, como cajas y chasis.
La apertura facilitó la entrada al país de productos que en algunos casos
resultaron, con respecto a los producidos acá, más económicos o de superior
calidad o ambas cosas, ejemplos de tales productos fueron los controladores
digitales de procesos, los indicadores digitales de temperatura para múltiples
termopares, los variadores de velocidad para motores eléctricos, los reguladores
de voltaje y las UPS's.
Algunas empresas pasaron de ser fabricantes a ser distribuidoras de esos mismos
equipos pero importados.
De todas maneras, según el segundo censo realizado en 1992 por la Asociación
de Entidades del Sector Electrónico - ASESEL, en el país existen 194 empresas
fabricantes, que se desempeñan en el campo de la electrónica profesional, el que
comprende productos no de consumo masivo sino especializados, en donde es
más fácil competir. Ejemplos destacados de tales productos fabricados en el país
son los siguientes: alarmas antirobo para vehículos y edificaciones, reguladores de
voltaje, inversores, cargadores de batería, UPS's, terminales de consulta de saldos
bancarios, controles para acceso de personal, lectores de banda magnética,
pequeñas centrales telefónicas, material didáctico para el aprendizaje de la
electrónica, circuitos impresos de doble cara con hueco metalizado y teclados de
membrana.
Casi todas las empresas del sector electrónico profesional son pequeñas, pero
revisten un carácter nacional, derivado principalmente del hecho de cumplir aquí
todo el proceso de producción, incluyendo las labores de investigación y desarrollo
de los productos. En cambio hay otras empresas, por cierto muy pocas,
subsidiarias de compañías multinacionales que aquí solo se limitan a ensamblar
sus productos.
71
Según el censo ya citado, el 96 % de las empresas del sector electrónico se
concentran en las 3 principales ciudades: Bogotá, Calí y Medellín. El resto se
ubican en ciudades intermedias como Pereira y Popayán.
72
CAPITULO 4. APLICACIONES
4.1
Industriales
4.1.1 Definición
4.1.2 Estado del arte.
4.2 Robótica
4.2.1 Definición67
1. f. Técnica que aplica la informática al diseño y empleo de aparatos que, en
sustitución de personas, realizan operaciones o trabajos, por lo general en
instalaciones industriales.
La palabra "robot" viene del vocablo checo "robota" que significa "servidumbre",
"trabajo forzado", o esclavitud, especialmente los llamados "trabajadores
alquilados" que vivieron en el Imperio Austrohungaro hasta 1848.
El término "robot" fue utilizado por primera vez por Karen Capek en su historia
actuada "R.U.R. (Rossum's Universal Robots)" (escrita en colaboración con su
hermano Josef en 1920; interpretada por primera vez en 1921; interpretada en
Nueva York en 1922; la edición en inglés fue publicada en 1923). Aunque los
robots de Čapek eran humanos artificiales orgánicos, la palabra robot es casi
siempre utilizada para referirse a humanos mecánicos. El término androide puede
referirse a cualquiera de estos, mientras que un Cyborg ("organismo cibernético" u
"hombre biónico") puede ser una criatura que es la combinación de partes
orgánicas y mecánicas.
En el principio del siglo XVIII, Jacques de Vaucanson creó un androide que tocaba
la flauta, así como un pato mecánico que continuamente comía y defecaba. En
uno de los cuentos de Hoffmann de 1817 “El Coco” presenta una mujer que
parecía una muñeca mecánica, y en la obra de Edward S. Ellis de 1865 “El
Hombre de Vapor de las Praderas” expresa la fascinación americana por la
industrialización.
La prehistoria
La palabra robot surge con la obra RUR, los "Robots Universales de Rossum"
de Karel Capek, es una palabra checoeslovaca que significa trabajador, sirviente.
Sin embargo podemos encontrar en casi todos los mitos de las diversas culturas
una referencia a la posibilidad de crear un ente con inteligencia, desde el PopolVuh de nuestros antepasados mayas hasta el Golem del judaísmo. Desde la
época de los griegos se intentó crear dispositivos que tuvieran un movimiento
67
REAL ACADEMIA ESPAÑOLA, Diccionario de la lengua española, marzo de 2006. http://www.rae.es
73
sinfin, que no fuera controlado ni supervisado por personas, en los siglos XVII y
XVIII la construcción de autómatas humanoides fabricados con mecanismos de
relojería por Jacques de Vaucanson, Pierre Henri-Louis, Jaquet- Droz, como el
escribiente, the Draughtsman, el músico Henri Maillar det (1800), Olimpia de la
ópera de Offenback de Hoffman, fortalecieron la búsqueda de mecanismos que
auxiliaran a los hombres en sus tareas. Estos autómatas desataron controversias
alrededor de la posible inteligencia que pudieran tener estos dispositivos pesadas
y en la búsqueda de la posibilidad de crear vida artificialmente. El escribiente
hacía mofa de la frase de Descartes de "Pienso luego existo", parafraseándola al
escribir "Escribo luego existo".
Los fraudes surgieron como en el caso del ajedrecista, en el que un muñeco
mecánico daba respuesta a jugadas de ajedrez, comprobándose más tarde que
era un enano encerrado en la caja del muñeco el que daba las respuestas y movía
el muñeco. Todos estos mitos anteceden a la obra Kapec, en la que se plantea la
construcción de robots para liberar a las personas de la carga pesada de trabajo.
Sin embargo, esta ficción y la creada por Asimov, junto con las desarrollos
mecácnicos de máquinas como el telar de Thaillard, motiva a George Devol a
crear el origen de los robots industriales, un manipulador que sería parte de una
célula de trabajo.
La historia
La clasificación de los robots se establece de diversas maneras, temporalmente,
por su funcionalidad, por su geometría, por la inteligencia, por lo que hablar de
generaciones de robots se puede plantear desde esos diversos puntos de vista.
Las características con las que se clasifican principlamente los robots son
Propósito o función
Sistema de coordenadas empleado
Número de grados de libertad del efector formal
Generación del sistema control.
Clasificación basada en su propósito o función :
Industriales b) Personales / Educativos c) Militares--vehículos autónomos
Los elementos que constituyen un robot industrial son:
Efectores finales Brazos manipuladores Controladores Sensores Fuentes de poder
Clasificación de los robots basados en las generaciones de sistemas de control.
La primera generación: El sistema de control usado en la primera generación de
robots esta basado en la "paradas fijas" mecánicamente. Esta estrategia es
conocida como control de lazo abierto o control "bang bang". Podemos considerar
como ejemplo esta primera etapa aquellos mecanismos de relojería que permiten
mover a las cajas musicales o a los juguetes de cuerda. Este tipo de control es
muy similar al ciclo de control que tienen algunos lavadores de ciclo fijo y son
equivalentes en principio al autómata escribiente de H. M. Son útiles para las
aplicaciones industriales de tomar y colocar pero están limitados a un número
pequeño de movimientos.
La segunda generación utiliza una estructura de control de ciclo abierto, pero en
lugar de utilizar interruptores y botones mecánicos utiliza una secuencia numérica
de control de movimientos almacenados en un disco o cinta magnética. El
74
programa de control entra mediante la elección de secuencias de movimiento en
una caja de botones o a través de palancas de control con los que se "camina", la
secuencia deseada de movimientos. El mayor número de aplicaciones en los que
se utilizan los robots de esta generación son de la industria automotriz, en
soldadura, pintado con "spray". Este tipo de robots constituyen la clase más
grande de robots industriales en E.U., incluso algunos autores sugieren que cerca
del 90 % de los robots industriales en EU pertenecen a esta 2ª generación de
control La tercera generación de robots utiliza las computadoras para su estrategia
de control y tiene algún conocimiento del ambiente local a través del uso de
sensores, los cuales miden el ambiente y modifican su estrategia de control, con
esta generación se inicia la era de los robots inteligentes y aparecen los lenguajes
de programación para escribir los programas de control. La estrategia de control
utilizada se denomina de "ciclo cerrado" La cuarta generación de robots, ya los
califica de inteligentes con más y mejores extensiones sensoriales, para
comprender sus acciones y el mundo que los rodea. Incorpora un concepto de
"modelo del mundo" de su propia conducta y del ambiente en el que operan.
Utilizan conocimiento difuso y procesamiento dirigido por expectativas que
mejoran el desempeño del sistema de manera que la tarea de los sensores se
extiende a la supervisión del ambiente global, registrando los efectos de sus
acciones en un modelo del mundo y auxiliar en la determinación de tareas y
metas.
La quinta generación, actualmente está en desarrollo esta nueva generación de
robots, que pretende que el control emerja de la adecuada organización y
distribución de módulos conductuales, esta nueva arquitectura es denominada
arquitectura de subsumción, cuyo promotor es Rodney Brooks.
4.2.2 Estado del Arte
Robots equipados con una sola rueda fueron utilizados para llevar a cabo
investigaciones sobre conducta, navegación, y planeo de ruta. Cuando estuvieron
listos para intentar nuevamente con los robots caminantes, comenzaron con
pequeños hexápodos y otros tipos de robots de múltiples piernas. Estos robots
imitaban insectos y artrópodos en funciones y forma. Como se ha hecho notar
anteriormente, la tendencia se dirige hacia ese tipo de cuerpos que ofrecen gran
flexibilidad y han probado adaptabilidad a cualquier ambiente. Con más de 4
piernas, estos robots son estáticamente estables lo que hace que el trabajar con
ellos sea más sencillo. Solo recientemente se han hecho progresos hacia los
robos con locomoción bípeda.
Para el 2002 Honda y Sony, han
comenzado a vender comercialmente
robots humanoides como “mascotas”.
Los robots con forma de perro se
encuentran, sin embargo, en una fase de
75
producción muy amplia, el ejemplo más notorio ha sido Aibo de Sony68.
Clasificación de los Robot
Existen barios parámetros para clasificar los robots, estos pueden ser, por su
grado de inteligencia o toma de decisiones, por la función que desempeñan o por
su morfología.
Los robots se pueden clasificar en móviles y en robots fijos, tomando en cuenta su
función y morfología.
Robots móviles: Estos robots se pueden desplazar mediante ruedas o patas,
interactúan con el medio.
Robots fijos: Operan en un solo sitio, no se desplazan, Para especificar la posición
del efector final de un robot se necesitan tres ejes principales y para definir la
orientación del efector final se requieren otros ejes diferentes69. De acuerdo con
la cantidad de grados de libertad que poseen sus movimientos y los ejes definidos
los robots fijos tiene otras clasificaciones.
La robótica en la actualidad
Los robots son usados hoy en día para llevar a cabo tareas sucias, peligrosas,
difíciles, repetitivas o embotadas para los humanos. Esto usualmente toma la
forma de un robot industrial usado en las líneas de producción. Otras aplicaciones
incluyen la limpieza de residuos tóxicos, exploración espacial, minería, búsqueda y
rescate de personas y localización de minas terrestres. La manufactura continúa
siendo el principal mercado donde los robots son utilizados. En particular, robots
articulados (similares en capacidad de movimiento a un brazo humano) son los
más usados comúnmente. Las aplicaciones incluyen soldado, pintado y carga de
maquinaria. La Industria automotriz ha tomado gran ventaja de esta nueva
tecnología donde los robots han sido programados para reemplazar el trabajo de
los humanos en muchas tareas repetitivas. Existe una gran esperanza,
especialmente en Japón, de que el cuidado del hogar para la población de edad
avanzada pueda ser llevado a cabo por robots.
Recientemente, se ha logrado un gran avance en los robots dedicados a la
medicina, con dos compañías en particular, Computer Motion e Intuitive Surgical,
que han recibido la aprobación regulatoria en América del Norte, Europa y Asia
para que sus robots sean utilizados en procedimientos de cirugía invasiva mínima.
La automatización de laboratorios también es un área en crecimiento. Aquí, los
robots son utilizados para transportar muestras biológicas o químicas entre
68
http://es.wikipedia.org/wiki/Robot#Historia Marzo de 2006
http://www.virtual.unal.edu.co/cursos/artes/2003259/Cap03/0304.htm#rf Curso Mundos Virtuales,
Universidad Nacional de Colombia.
69
76
instrumentos tales como incubadoras, manejadores de líquidos y lectores. Otros
lugares donde los robots están reemplazando a los humanos son la exploración
del fondo oceánico y exploración espacial. Para esas tareas, robots de tipo
artrópodo son generalmente utilizados. Mark W. Tilden del Laboratorio Nacional de
los Álamos se especializa en robots económicos de piernas dobladas pero no
empalmadas, mientras que otros buscan crear la réplica de las piernas totalmente
empalmadas de los cangrejos.
Robots alados experimentales y otros ejemplos que explotan el biomimetismo
también están en fases previas. Se espera que los así llamados “nanomotores” y
“cables inteligentes” simplifiquen drásticamente el poder de locomoción, mientras
que la estabilización en vuelo parece haber sido mejorada substancialmente por
giroscopios extremadamente pequeños. Un impulsor muy significante de este tipo
de trabajo es el desarrollar equipos de espionaje militar.
También, la popularidad de series de televisión como “Robot Wars” y “Battlebots”,
de batallas estilo sumo entre robots, el éxito de las Bomba Inteligente y UCAVs en
los conflictos armados, los comedores de pasto “gastrobots” en Florida, y la
creación de un robot comedor de lingotes en Inglaterra, sugieren que el miedo a
las formas de vía articial haciendo daño, o la competencia con la vida salvaje, no
es una ilusión.
Dean Kamen, fundador de FIRST, y de la Sociedad Americana de Ingenieros
Mecánicos (ASME), ha creado una Competencia Robótica multinacional que reúne
a profesionales y jóvenes para resolver un problema de diseño de ingeniería de
una manera competitiva. En 2003 contó a más de 20,000 estudiantes en más de
800 equipos en 24 competencias. Los equipos vienes de Canadá, Brasil, Reino
Unido, y EEUU. A diferencia de las competencias de los robots de lucha sumo que
tienen lugar regularmente en algunos lugares, o las competencias de “Battlebots “
transmitidas por televisión, estas competencias incluyen la creación de un robot.
Los robots parecen estar abaratándose y empequeñeciendose en tamaño, todo
relacionado con la miniaturización de los componentes electrónicos que se utilizan
para controlarlos. También, muchos robots son diseñados en simuladores mucho
antes de que sean construidos e interactúen con ambientes físicos reales.
El campo de la robótica industrial puede definirse como el estudio, diseño y uso de
robots para la ejecución de procesos industriales.
Los robots industriales son robots que se emplean para tareas vinculadas con la
producción de bienes de origen manufacturado en fábricas o industrias.
Los tipos más habituales son:
77
- Robots de soldadura Se emplean masivamente
en el ensamblaje de vehículos a motor, la soldadura
por arco es la más habitual.
Los robots de soldadura suelen tener la apariencia
de un brazo articulado que mediante algún
mecanismo alimenta los electrodos necesarios para
producir la soldadura.
- Robots de carga y descarga Este tipo de robots suele estar formado por un doble
eje (X e Y) que permite desplazar cargas sobre dos puntos, de esta forma nos
situamos en el punto A y recogemos el objeto en cuestión para a continuación
desplazarnos sobre el plano y situarlo en un punto B.
Suele ser necesario un tercer grado de libertad (en Z) para poder desplazar los
objetos verticalmente y evitar así que toquen el suelo.
Otros tipos de robot industriales son:
- Robots de ensamblaje
- Robots para aplicación de pintura .
- Robots para inspección de productos
Los domobots son microbots ( robots móviles con microcontrolador) domóticos (
conectados a una red de automatización doméstica).
Están conectados a un controlador domótico (un ordenador o un dispositivo
autónomo - sin necesidad de ordenador -) mediante cable (puerto USB o Firewire)
o inalámbricamente (generalmente un puerto WIFI).
Se utilizan principalmente en las tareas del hogar (home care), como aspiradores,
transportadores de objetos dentro de la casa para el lavado, planchado...
No es lo mismo un robot doméstico que un domobot. ROOMBA es un robot
doméstico, pero no es un domobot debido a que no tiene un puerto para
conectarlo a la red domótica (p.e. un puerto WIFI o USB ).
En definitiva, la domobótica es un cruce entre la microbótica y la domótica.
En nuestro país el desarrollo de la robótica aun no es muy representativo, se limita
a algunos logros en competencias internacionales, desarrollos teóricos dados por
78
grupos de investigación en algunas universidades, no se tiene trabajos a nivel
industrial que sirvan de ejemplo para mostrar un desarrollo significativo en el tema.
La microbótica es la tecno-ciencia que se ocupa de los microbots.
El microbot ha sido posible gracias a la aparición del microcontrolador en los años
90 del Siglo XX, que es el computador que gobierna al microbot y que se incrusta
en el mismo.
Al ser un ordenador limitado, los microbots están dedicados a resolver tareas que
no exijan una elevada potencia y complicados algoritmos, con rapidez y precisión.
Debido a la pequeñez del microcontrolador y a su portabilidad, una característica
principal del microbot es la movilidad, ya que puede llevar insertado el ordenador
que le dirije.
Ha de indicarse que en la actualidad, gracias especialmente a las conexiones
inalámbricas tipo Wi-Fi (por ejemplo, dentro de una red domótica) han aumentado
las capacidades de procesado de los microbots, pudiendo memorizar más datos y
realizar tareas más complejas. Cuando el microbot actúa sin estar controlado por
un ordenador externo (con el ordenador apagado), se dice que actúa en modo
autónomo.
Robot en el Espacio70.
Una de las aplicaciones muchos más aprovechadas de la robótica, y que el
hombre se ha seguido maravillando, es la telerobótica en el espacio extraterrestre.
La organización más importante dentro de este aspecto, y que ha marcado un
rumbo muy avanzado en cuanto a tecnologías e investigaciones, es la NASA
(National Aeronautics and Space Administration).
70
http://isaacasimov.garcia-cuervo.com/Robotica.htm#Aplicaciones Junio 2006
79
El Programa de Telerobótica Espacial de la NASA, esta diseñado para desarrollar
capacidades de la telerobótica para la movilidad y manipulación a distancia,
uniendo la robótica y las teleoperaciones y creando nuevas tecnologías en
telerobótica.
Los requerimientos de tecnología de la robótica espacial pueden ser
caracterizados por la necesidad del control manual y automático, tareas no
repetitivas, tiempo de espera entre el operador y el manipulador, manipuladores
flexibles con dinámicas complejas, nueva locomoción, operaciones en el espacio,
y la habilidad para recuperarse de eventos imprevistos.
El Programa de Telerobótica Espacial consiste en un amplio rango de tareas de
investigaciones básicas científicas para el desarrollo de aplicaciones para resolver
problemas de operación específicos. El programa centra sus esfuerzos en tres
áreas en especial: ensamblaje y servicio en órbita, cuidar los gastos científicos, y
robots en la superficie del planeta. Para poderse aplicar correctamente las áreas
dentro de su materia, el programa se encarga del desarrollo del robot completo, de
sus componentes, y de la correcta creación e implantación del sistema para que
los robots puedan cubrir las necesidades por completo. Su principal aplicación es
el poder proveer la tecnología para las aplicaciones de la telerobótica espacial con
suficiente confianza por parte de los diseñadores para que futuras misiones
espaciales puedan aplicar la tecnología con toda confianza.
80
Robots en el Hogar.71
La aplicación más antigua es en el hogar. Los electrodomésticos, como hoy los
conocemos, forman parte del mundo de la robótica, y aunque parezca increíble,
éstos son robots domésticos. No se requiere de una gran programación previa, ni
de mecanismos super complejos para poder caracterizar a un robot doméstico,
puesto que este es su fin: facilitar las labores domésticos, y por consiguiente
ocupar el menor espacio posible para poder realizar las tareas.
Uno de los primeros robots domésticos fue la estufa, ya sea de leña o de gas; le
siguen el refrigerador, el lavavajillas, el horno de microondas, el horno eléctrico y
así muchos más electrodomésticos que pasan desapercibidos por la mayoría de
nosotros, y no nos damos cuenta de que también son considerados como robots,
robots electrodomésticos.
Entretenimiento.
La robótica ha invadido la mayoría de
nuestras actividades cotidianas, muestra
de ello, es la robótica en los medios de
esparcimiento, y como ejemplo podemos
citar al fabuloso parque de diversiones
Disneylandia.
En este parque de diversiones se pueden
encontrar una gran variedad de aplicaciones de la robótica, desde pájaros
cantores, elefantes en movimiento, cocodrilos, osos, hasta simuladores de vuelo,
androides, submarinos, etc.
Como se puede ver, la robótica puede ser utilizada en casi cualquier actividad que
el ser humano realice, y puede ser de gran utilidad.
Nos damos cuenta de que la robótica empieza a ser parte de nuestras vidas
cotidianas, así como lo empezaron algunas de las actividades que actualmente
realizamos todos los días.
4.3.
AUTOMATIZACIÓN
4.3.1 Definición
Automatización72.
71
72
http://isaacasimov.garcia-cuervo.com/Robotica.htm#Aplicaciones junio 2006
REAL ACADEMIA ESPAÑOLA, Diccionario de la lengua española, marzo de 2006. http://www.rae.es.
81
1. f. Acción y efecto de automatizar.
automatizar.
1. tr. Convertir ciertos movimientos corporales en movimientos automáticos o
indeliberados.
2. tr. Aplicar la automática a un proceso, a un dispositivo, etc.
autómata.
(Del lat. automăta, t. f. de -tus).
1. m. Instrumento o aparato que encierra dentro de sí el mecanismo que le
imprime determinados movimientos.
2. m. Máquina que imita la figura y los movimientos de un ser animado.
3. m. coloq. Persona estúpida o excesivamente débil, que se deja dirigir por otra.
AUTOMATIZACIÓN 73
Con el nacimiento de la Revolución Industrial, muchas fábricas tuvieron gran
aceptación por la automatización de procesos repetitivos en la línea de
ensamblaje. La automatización consiste, principalmente, en diseñar sistemas
capaces de ejecutar tareas repetitivas hechas por los hombres, y capaces de
controlas operaciones sin la ayuda de un operador humano. El término
automatización también se utiliza para describir a los sistemas programables que
pueden operar independientemente del control humano. La mayoría de las
industrias has sido automatizadas o utilizan tecnología para automatizar algunas
labores; en la industria de la telefonía, marcación, transmisión y facturación esta
completamente automatizados. Los ferrocarriles son controlados por herramientas
automáticas de señalización, las cuales cuentan con sensores capaces de
detectar el cruce de carros en un punto en especial, esto significa que se puede
tener vigilado el movimiento y localización de vagones de tren.
Pero no todas las industrias requieren el mismo grado de automatización. La
agricultura es una industria difícil de automatizar, y con esto se ha vuelto más
mecanizada, esencialmente en el procesamiento y empaque de comida. De
manera similar, los doctores pueden dar consulta asistiéndose en una
computadora, pero finalmente el doctor, y no la computadora, termina por dar el
diagnóstico final al paciente.
Las industrias del aceite y la química en especial, han desarrollado métodos de
flujo continuo de producción, a causa de la naturaleza de los materiales utilizados;
en la industria de la refinería, aceite crudo penetra en un punto y fluye
continuamente a través de pipas, destilación, y herramientas de reacción para ser
procesadas en productos como la gasolina o el aceite. Un arreglo de herramientas
de control automático manejados por un microprocesador y coordinados por una
computadora central se utiliza para el control de válvulas, termostatos, o cualquier
otro equipo que requiera ser regulado por las ocurrencias de flujo o reacción.
73
http://isaacasimov.garcia-cuervo.com/Robotica.htm#Automatización, Junio 2006
82
Los robots comenzaron a aparecer en este proceso de automatización
industrial hasta la aparición de las computadoras en los 40’s. Estos robots
computarizados, están equipados con pequeños microprocesadores capaces de
procesar la información que le proveen los sensores externos y así es como el
robot puede tomar cambiar o mantener una operación en ejecución, a esto se le
llama retroalimentación, y forma parte de la Cibernética. La retroalimentación es
esencial en cualquier mecanismo de control automático, ya que ayuda a controlar
los factores externos que le afecten en la correcta ejecución de sus operaciones
normales.
ANTECEDENTES 74
Antiguamente, se creaban artefactos capaces de realizar tareas diarias y comunes
para los hombres, o bien, para facilitarles las labores cotidianas; se daban cuenta
de que había tareas repetitivas que se podían igualar con un complejo sistema, y
es así como se comienza a crear máquinas capaces de repetir las mismas labores
que el hombre realizaba, y como ejemplo de estas máquinas podemos citar las
siguientes:
• La rueda como medio de transporte o como herramienta, por ejemplo, para un
alfarero.
• El engrane.
• La catapulta como arma de combate.
• El molino, ya sea para obtener agua de las entrañas de la tierra, o como
moledor de granos.
Y así una gran variedad de máquinas que antiguamente se creaban para facilitarle
las tareas a los hombres. Pero no todos estos artefactos tenían una utilidad,
algunas máquinas solamente servían para entretener a sus dueños, y no hacían
nada más que realizar movimientos repetitivos ó emitir sonidos. Cabe mencionar
que los árabes fueron unos maestros en la construcción de autómatas y en la
precisión de sus cálculos, y como ejemplo de ello, se puede mencionar que
inventaron el reloj mecánico, así como sus grandes aportaciones a la astrología.
También los ingenieros griegos aportaron grandes conocimientos a los autómatas,
aunque su interés era más bien hacia el saber humano más que hacia las
aplicaciones prácticas.
Historia de los autómatas.
Desde hace cientos de años antes de Cristo, se comenzaron a
crear autómatas, antecesores de los autómatas actuales; en
seguida se muestra una lista de autómatas creados, y que se
tienen como referencia para tomarlos como antecesores.
74
http://isaacasimov.garcia-cuervo.com/Robotica.htm#Historia
83
Solamente por citar algunos de estos inventos, se mencionan los siguientes:
• En 1500 a. C., Amenhotep, hermano de Hapu, construye una estatua de
Memon, el rey de Etiopía, que emite sonidos cuando la iluminan los rayos del
sol al amanecer.
• En el 500 a. C., King-su Tse, en China, inventa una urraca voladora de madera
y bambú y un caballo de madera que saltaba.
• Entre el 400 y 397 a. C., Archytar de Tarento construye un pichón de madera
suspendido de un pivote, el cual rotaba con un surtidor de agua o vapor,
simulando el cuelo. Archytar es el inventor del tornillo y la polea.
• Entre el 300 y 270 a. C., Cresibio inventa una clepsidra (reloj de agua) y un
órgano que funciona con agua.
• Entre el 220 y 200 a. C., Filon de Bizancio inventó un autómata acuático y la
catapulta repetitiva.
• En el año 206 a. C., fué encontrado el tesoro de Chin Shih Hueng Ti consistente
en una orquesta mecánica de muñecos, encontrada por el primer emperador
Han.
• En el año 62 d. C., Hero de Alejandría hace un tratado de autómatas, un
famoso registro de aplicaciones de la ciencia que pueden ser demostrados por
medio de un autómata, así como su teatro automático en el cual, las figuras que
se encuentran montadas en una caja, cambian de posición ante los ojos de los
espectadores: pájaros cantores, trompetas que suenan, medidores de la fuerza
del vapor, animales que beben, termoscopios, sifones y máquinas que
operaban con monedas.
• Año 335 d. C., Hsieh Fec construye un carro con cuatro ruedas con la figura de
Buda, hecha de madera de sándalo.
• En el año 700 d. C., Huang Kun construyó barcos con figuras de animales,
cantantes, músicos y danzarines que se movían.
• En el 770 d. C., Yang Wu-Lien construye un mono que extiende sus manos y
dice "¡Limosna! ¡Limosna!", guardando su recaudación en una bolsa cuando
alcanza un peso determinado.
• El príncipe Kaya, hijo del Emperador Kannu, construye en el año 840 una
muñeca que derrama agua.
• En el 890, Han Chih Ho hace un gato de madera que caza ratas, y moscas tigre
que bailan.
• El sabio príncipe hindú Bhoja, escribe, en el año 1050, el SamaranganaSutradhara, que incluye comentarios sobre la construcción de máquinas o
yantras.
• Alberto Magno (1204 - 1272) crea un sirviente mecánico.
• Roger Bacon (1214 - 1294) construye, después de 7 años, una cabeza que
habla.
• En el año 1235, Villard d’Honnecourt hace un libro de esbozos que incluyen
secciones de dispositivos mecánicos, como un ángel autómata, e indicaciones
para la construcción de figuras humanas y animales.
84
• Reloj con forma de gallo que canta en la catedral de Strasbourg, que funcionó
desde 1352 hasta 1789.
• Leonardo Da Vinci construye en el año 1500 un león automático en honor de
Luis XII que actúa en la entrada del Rey de Milán.
• Salomón de Caus (1576 - 1626) construye fuentes ornamentales y jardines
placenteros, pájaros cantarines e imitaciones de los efectos de la naturaleza.
• En 1640, René Descartes inventó un autómata al que se refiere como "mi hijo
Francine".
• En 1662, se abre en Osaka el teatro Takedo de autómatas.
• Jacques de Vaucanson, construye el pato, el autómata más conocido; un pato
hecho de cobre, que bebe, come, grazna, chapotea en el agua y digiere su
comida como un pato real. Previamente construye un flautista y un tamborilero
en 1738; el primero consistía en un complejo mecanismo de aire que causaba
el movimiento de dedos y labios, como el funcionamiento normal de una flauta.
• Los Maillardet (Henri, Jean-David, Julien-Auguste, Jacques-Rodolphe) hicieron
su aparición a finales del siglo XVIII y principios del XIX, construyen un escritordibujante, con la forma de un chico arrodillado con un lápiz en su mano, escribe
en inglés y en francés y dibuja paisajes. Construyen un mecanismo "mágico"
que responde preguntas y un pájaro que canta en una caja.
• Robert Houdini construye una muñeca que escribe. También realiza un
pastelero, un acróbata, una bailarina en la cuerda floja, un hombre que apunta
con una escopeta y una artista del trapecio.
• Thomas Alva Edison construyó en el año 1891 una muñeca que habla.
Como nos podemos dar cuenta, los autómatas construidos
hasta este entonces, solamente servían para entretener a
propios y extraños, no tenían una aplicación práctica en
alguna área en específico. "Estas máquinas funcionaban
generalmente por medio de movimientos ascendentes de aire
o agua caliente. El vertido progresivo de un líquido provocaba
rupturas de equilibrio (o bien la caída de un peso) en diversos
recipientes provistos de válvulas; otros mecanismos se
basaban en palancas o contrapesos. Mediante sistemas de
este tipo se construían pájaros artificiales que podían "cantar"
o "volar", o puertas que se abrían solas. Las construcciones de la escuela de
Alejandría se extendieron por todo el Imperio Romano y posteriormente por el
mundo árabe. En el siglo XIII, Al-Djazari apareció como el heredero de todas ellas
con la publicación de su "Libro del conocimiento de los procedimientos
mecánicos", uno de cuyos grabados se reproduce aquí. Se trata de una fuente de
distribución de agua."
85
4.3.2 Estado del Arte
QUE SON LOS EDIFICIOS INTELIGENTES?
75
Son simplemente, construcciones con un nivel de alta tecnología en todos sus
procesos.
Eso quiere decir que TODOS los profesionales que intervienen en el DISEÑO,
CONSTRUCCIÓN,
INTERVENTORíA,
GERENCIA
DE
PROYECTO,
COMERCIALIZACIÓN y demás áreas vitales para el proyecto, deben tener lo
conocimientos necesarios para integrar nuevos aspectos que de forma
sincronizada
permitan
disfrutar
del
concepto
de
EFICIENCIA.
Una construcción inteligente, es una construcción EFICIENTE, eso quiere decir
que puede hacer mucho con la mínima cantidad de recursos.
Por ejemplo, un pequeño centro de salud, en un municipio apartado, que recicle
sus desperdicios, soporte los cortes de energía eléctrica con foto celdas solares,
mantenga una temperatura adecuada aprovechando la arborización y la
orientación de sus fachadas de acuerdo al recorrido del sol, controle sus usuarios,
empleados, proveedores y visitantes con un sencillo sistema de video que sirve de
control de acceso y centralice la iluminación en el cuarto de vigilancia; es mucho
más "inteligente" que un supermoderno edificio con altísima tecnología,
sobrecotos enormes y sofisticados sistemas que ni siquiera se hablan unos con
otros.
El concepto de EFICIENCIA comienza a verse por la simplicidad - y es que lo más
simple, casi siempre es lo que mejor funciona y lo que menos falla -, seguido de la
flexibilidad y la capacidad de proyectarse a la necesidades en un futuro.
Desde el punto de vista Electrónico, - que es nuestro fuerte - debo decir que un
edificio inteligente debe albergar tecnología en cuatro frentes diferentes:
Seguridad, Comunicaciones, Apoyo Logístico y Automatización de procesos.
Sin embargo no sirve de nada invertir mucho dinero en estas tecnologías, si por
ejemplo, al arquitecto se le olvidaron los parqueaderos de visitantes, o si por
pensar en mucha seguridad cambió los espacios de naturaleza abierta por muros
de 3 metros con cero estética.
Hablar de la parte electrónica implica un correcto balance entre todos los aspectos
concernientes al proyecto.
Volvamos a lo nuestro, la tecnología de punta..... Cuando hablamos de seguridad,
casi siempre pienso en Circuito Cerrado de TV, control de acceso, alarmas contra
intrusión e incendio, sistemas de apoyo a requisas y seguridad en la información.
Una adecuada INTEGRACION entre estos subsistemas permite un nivel de
seguridad adecuado, cumpliendo las normas internacionales y permitiendo que la
información se centralice en un solo lugar.
Si hablamos de comunicaciones, debemos pensar en las redes telefónicas, las
redes de datos -tan indispensables como las anteriores hoy en dia-, las redes
75
http://edificiosinteligentes.blogspot.com/, Ing. Germán Alexis Cortés, Consultor - Automatización
de Edificios. Mayo 2006
86
multimedia de audio y video que reemplazan a las tradicionales de sonido
ambiental y televisión comunal, redes de sonido y audio profesional (solo para
auditorios o áreas similares) y todos los canales de comunicación hacia el exterior.
Cuando nos referimos a las redes de Automatización de procesos, estamos
hablando de control centralizado de iluminación - que es lo que mas consume
energía-, supervisión y control de equipos electromecánicos (ascensores, aire
acondicionado, motobombas, plantas eléctricas, UPS, subestación, entre otras),
control de fluidos, distribución del control en toda la edificación y centralización de
la información en un solo punto que de forma automática realice operaciones con
la mínima intervención del operador.
Finalmente los sistemas de apoyo logístico, se refieren a todo los elementos
electrónicos que permiten una operación de cada sitio con mayor seguridad y
confort. Nos referimos a los sistemas de información administrativos para control
de inventarios, ventas y contabilidad en general, a las redes especiales para fines
muy especiales (por ejemplo el sistema de llamado de enfermeras en un hospital,
o el sistema de control de taquillas en en estadio o el sistema de redes
inalámbricas para hacer pedidos en un restaurante o el sistema de control de
inventarios por RFID en un almacén de cadena, solo por dar algunos ejemplos).
La INTEGRACIÓN real de estos cuatro grandes sistemas electrónicos,
compartiendo información, registrando todo cuanto acontece en medios
electrónicos para su posterior investigación, disminuyendo la intervención de
humanos en los procesos y alertando al operador cuando eventos anormales
ocurran permiten tener un adecuado sistema electrónico que apoya el concepto de
edificio inteligente en nuestro medio.
Quiero terminar el dái de hoy, recordando que lo simple siempre es lo mejor.... el
grado de sofisticación debe reducirse al máximo en cada caso. Pero también
quiero recordar que los extremos son malos, las cosas muy simples son buenas
solo si hacen lo que realmente queremos que hagan. Asi que un buen diseño de
edificio inteligente es aquel que logra un balance perfecto entre alta tecnología,
recursos económicos y capacidad operativa.
4.34. COMUNICACIONES
4.4.1 Definición
comunicación76.
(Del lat. communicatĭo, -ōnis).
1. f. Acción y efecto de comunicar o comunicarse.
2. f. Trato, correspondencia entre dos o más personas.
3. f. Transmisión de señales mediante un código común al emisor y al receptor.
76
REAL ACADEMIA ESPAÑOLA, Diccionario de la lengua española, Enero de 2006.
http://www.rae.es.
87
4. f. Unión que se establece entre ciertas cosas, tales como mares, pueblos, casas
o habitaciones, mediante pasos, crujías, escaleras, vías, canales, cables y otros
recursos.
5. f. Cada uno de estos medios de unión entre dichas cosas.
6. f. Papel escrito en que se comunica algo oficialmente.
7. f. Escrito sobre un tema determinado que el autor presenta a un congreso o
reunión de especialistas para su conocimiento y discusión.
8. f. Ret. Figura que consiste en consultar la persona que habla el parecer de
aquella o aquellas a quienes se dirige, amigas o contrarias, manifestándose
convencida de que no puede ser distinto del suyo propio.
9. f. pl. Correos, telégrafos, teléfonos, etc.
medio de comunicación
vía de comunicación
4.5.
ELECTROMEDICINA
4.5.1 Definición
Electromedicina77.
77
REAL ACADEMIA ESPAÑOLA, Diccionario de la lengua española, marzo de 2006. http://www.rae.es.
88
CAPITULO 5. DISEÑO
5.1 DEFINICIÓN DE ANÁLISIS Y SÍNTESIS.
Los términos análisis y síntesis viene del Griego y se refiere literalmente “separar”
y “ Reunir”, respectivamente. Estos términos son usados en las más modernas
disciplinas científicas, en las matemáticas, lógica, economía, psicología y
sobretodo en la ingeniería, para denotar algunos procesos de investigación. En
general Análisis se definido como un proceso por el cual fragmentamos un
intelectual o sustancial conjunto en sus partes o componentes. Síntesis es definido
como un proceso opuesto, por el cual se combinan elementos separados o
componentes para formar un conjunto coherente.
En la página http://www.swemorph.com/pdf/anaeng-r.pdf se encuentra una
definición completa de estos dos términos.
Otra Definición
análisis78.
1. m. Distinción y separación de las partes de un todo hasta llegar a conocer sus
principios o elementos.
2. m. Examen que se hace de una obra, de un escrito o de cualquier realidad
susceptible de estudio intelectual.
3. m. Tratamiento psicoanalítico
4. m. Gram. Examen de los componentes del discurso y de sus respectivas
propiedades y funciones.
5. m. Inform. Estudio, mediante técnicas informáticas, de los límites,
características y posibles soluciones de un problema al que se aplica un
tratamiento por ordenador.
6. m. Mat. Parte de las matemáticas basada en los conceptos de límite,
convergencia y continuidad, que dan origen a diversas ramas: cálculo diferencial e
integral, teoría de funciones, etc.
7. m. Med. análisis clínico.
~ cualitativo.
1. m. Quím. El que tiene por objeto descubrir y aislar los elementos o ingredientes
de un cuerpo compuesto.
~ cuantitativo.
1. m. Quím. El que se emplea para determinar la cantidad de cada elemento o
ingrediente.
~ dimensional.
1. m. Fís. Método que se ocupa del análisis de las dimensiones de las
magnitudes físicas, y que permite establecer directamente relaciones entre las que
intervienen en un proceso, sin necesidad de realizar un análisis completo y
detallado.
~ espectral.
78
http://www.rae.es/
89
1. m. Fís. Método de análisis químico cualitativo, y en algunos casos
cuantitativos, mediante técnicas espectroscópicas.
~ factorial.
1. m. Estad. Método estadístico usado para cuantificar la importancia de cada uno
de los factores actuantes en un fenómeno.
síntesis79.
1. f. Composición de un todo por la reunión de sus partes
2. f. Suma y compendio de una materia u otra cosa.
3. f. Quím. Proceso de obtención de un compuesto a partir de sustancias más
sencillas.
~ abiótica.
1. f. Bioquím. Producción de biopolímeros a partir de moléculas orgánicas
sencillas.
5.2 MÉTODO DEL DISEÑO EN INGENIERÍA.
El método ingenieril, es una actividad de toma de decisiones para desarrollar
materiales productos o procesos que satisfagan una necesidad. En este sentido
es muy diferente al trabajo científico; porque la motivación para esta actividad es
la curiosidad intelectual del científico, mientras que el ingeniero trabaja por la
identificación de una necesidad.80
De otra parte el método ingenieril se define: como una estrategia para producir el
mejor cambio con los recursos disponibles en una situación deficientemente
entendida o incierta.
PASOS DEL MÉTODO INGENIERIL
Parte de la una necesidad e identifica el problema
Partir de una necesidad y definir ampliamente un problema, implica decidir entre
múltiples soluciones posibles la que consideramos más apropiada, una amplia
definición de lo que se intenta solucionar, esto incluye el recabar el mayor número
de datos posibles. Es común el error de no poner atención a la recopilación de
datos, lo que lleva a adoptar soluciones incorrectas.
Determina especificaciones
Determinar las especificaciones significa, ampliar más los detalles, o sea, hacer
consideraciones como las siguientes:
¿Cuáles son las necesidades de los usuarios?
¿Qué debería ser la solución?
¿Cuáles son los límites del problema Denominados también imposiciones y
restricciones?
79
80
REAL ACADEMIA ESPAÑOLA, marzo de 2006. http://www.rae.es
Wright, Paul, introducción a la ingeniería, Adisson Wesly, DEL: 1994.
90
¿Cuáles son las características de la población que usara el producto?
Hace un estudio de factibilidad
Realizar un estudio de factibilidad, es el proceso de definir exactamente qué es el
proyecto y qué temas estratégicos debe considerarse para determinar su
factibilidad o posibilidad de éxito. Es un análisis preliminar de los requerimientos.
Es la diligencia que todo ingeniero o empresa debe hacer antes de empezar
cualquier proyecto, pues el estudio debe ser capaz de indicar si se continúa o no,
o se cambiaran los requerimientos a unos más reales.
En cierto sentido un estudio de factibilidad es un corto análisis formal del problema
y su objetivo es dar al ingeniero una clara evaluación de las posibilidades técnicas,
económicas, sociales y políticas de la solución. Puede incluir estudios de
documentos, búsquedas de información y simulaciones.
La clarificación del problema implica, revisar cuestionamientos como:
¿Cuál es el paso fundamental que se mejorará?
¿Quiénes serán los usuarios y su papel?
¿Cuáles son los requerimientos más importantes de la solución?
¿Cuáles partes del problema serán las más riesgosas para manejar?
¿Qué modificaciones futuras se pueden esperar racionalmente?
¿Qué soluciones existen en el mercado o quién podría suministrar otras?
Realiza una búsqueda de información
La búsqueda de la información requiere retomar
sobre el problema y sus posibles soluciones.
toda lo información posible,
Ya la definición del problema y la determinación de las especificaciones exigen la
búsqueda de información y a su vez, debe establecer los principales interrogantes.
Estos pueden ser respondidos con los conocimientos y experiencias del mismo
ingeniero o de los miembros del equipo, pues muchas veces es posible que se
hayan solucionado problemas similares o existan soluciones disponibles en el
mercado en condiciones económicas favorables y bastaría con adoptarlas.
Desarrolla conceptos alternos de diseño
El desarrollo de conceptos relativos al diseño depende de los campos; ya sea un
ingeniero químico, un ingeniero mecánico, un ingeniero electrónico, un arquitecto
o un diseñador gráfico abarca diferentes conceptos del diseño en su propio campo
de interés. 81
Hallar las componentes físicas correctas de una estructura física (hallar, física)
81
DIXON,Cork. Diseño en Ingeniería. Inventiva, análisis y toma de decisiones. Limusa. Wiley.
México. 1970.
91
Una actividad cuyo objetivo es solucionar un problema (objetivo, actividad de
solución)
Toma de decisiones frente a la incertidumbre con grandes penas `para el error
(decisiones, incertidumbres, penas).
Simular lo que queremos hacer antes de hacerlo, tantas veces como sea
necesario para tener confianza en el resultado final (simular, confianza).
El factor condicionante para aquellas partes del producto que estarían en contacto
con la gente (contacto con la gentes)
Relacionar el producto con la situación para dar una satisfacción (producto,
satisfacción).
Llevar a cabo un acto de fe muy complicado (acto de fe)
La solución óptima a la suma de necesidades verdaderas de un particular conjunto
de circunstancias (necesidades verdaderas)
El salto imaginativo de los hechos presentes a las posibilidades futuras (salto
imaginativo)
Una actividad creativa que trae a la existencia algo nuevo y útil que no existía
previamente (actividad creativa, útil que no existía)
La creación de un resultado final que satisface una necesidad humana mediante
una acción definida (creación, resultado que satisface necesidad humana, acción)
La actividad del diseño es planear y realizar una estrategia creativa para llevar a
cabo una tarea física, mental, moral o artística o satisfacer una necesidad. El
propósito del diseño es:
. Satisfacer una especificación funcional dada
. Conformarse a la limitación del objetivo
. Responder a los requerimientos implicados o explícitos en la realización (tiempo,
espació, energía, costos, etc.) y estructura (estilo, simplicidad, etc.)
. Satisfacer las restricciones del proceso mismo de diseño.
Selecciona el diseño más promisorio
El ingeniero ha de acomodar criterios múltiples, y luego ir eliminando las
alternativas deficientes o de inferior calidad, y los que se van seleccionando se
someten a criterios más refinados, hasta encontrar el óptimo.
Implementa un modelo matemático o físico
92
Otra actividad que se realiza en este contexto es el análisis de valor, que se aplica
a los procedimientos lo mismo que a los productos y su meta es reducir el costo
excesivo en el diseño. El concepto básico es que muchos de los diseños
propuestos se pueden mejorar notablemente, ya que el diseño original puede
presentar costos excesivos, aunque no existe ninguna limitante para aplicar la
técnica de análisis de valor desde la primera vez. Una manera de hacer este
análisis es definir y evaluar la función. Hay que hacer una distinción entre valor y
función.
Al definir las funciones se deben expresar con un nombre y un verbo y dividir las
de cada componente en primarias y secundarias. Esta cuidadosa definición de las
funciones permitirá tener en cuenta las consideraciones ergonómicas y
ambientales necesarias. Así con todas estas metodologías se puede optimizar el
diseño en todos los sentidos y se estará en condiciones de avanzar al siguiente
paso del método ingenieril.
Determina la relación entre las dimensiones y los materiales del producto
Esto significa comprobar que los materiales es decir los insumos, en sus
características, respondan plenamente a la magnitud del diseño. Al igual se debe
constatar que estén disponibles en la cantidad, formas, dimensiones y acabados
que se refieren.
Optimiza el diseño
Para optimizar el diseño, se requiere de las simulaciones con el modelo de diseño
más promisorio y las comprobaciones de la concordancia entre las dimensiones y
los materiales permiten optimizar el diseño seleccionado. Tales actividades
permiten detectar cuando se producen equivocaciones, fallas, accidentes,
reparaciones, y cambios si las decisiones se han basado en predicciones que no
son precisas.
Aun sin recurrir a herramientas tan sofisticadas, los diseños se pueden optimizar
teniendo presente que deben ser tan simples como se pueda. A menudo una
solución de ingeniería, que es específicamente simple en comparación con lo que
realiza, se describe como elegante. Puesto que la complejidad es lo contrario de
la sencillez, la elegancia es una regla de oro en el método ingenieril.
Muchas veces la complejidad de una solución puede estimarse satisfactoriamente
contando sus piezas o elementos (resistores, transistores, engranes, levas, etc.)
pero la razón anterior que expresa la elegancia es difícil de cuantificar.
Evalúa el diseño optimizado, mediante análisis minuciosos del modelo
matemático o por ensayo de los modelos físicos
Establecido el diseño (o solución) y sus posibilidades y realizada su optimización,
es necesario evaluarlo de nuevo mediante análisis minuciosos del modelo
matemático o por ensayo de los modelos físicos.
93
En el primer caso debe resolverse el modelo para las condiciones optimizadas y
comparar estos resultados con los deseados.
De conocer todas las regulaciones que gobiernan no solamente los ensayos sino
también el futuro desempeño de la solución en cuestión. Aunque en el país
existen las normas ICONTEC y hay podemos organizaciones de normas como las
ASTM o las DIN, lo normal será buscar conformidad con las normas
internacionales ISO.
Comunica las decisiones de diseño al personal de producción
La comunicación personal del diseño, se refiere al desarrollo y producción de
elementos físicos o no, debe entenderse en sentido lato de que la solución
adoptada debe comunicarse claramente a quines deben adoptarla, sea el
personal de producción como cualquier tipo de usuario. Debemos ser cuidadosos
de expresar nuestras conclusiones de manera que puedan ser comprendidas por
la persona común.
La comunicación sobre la solución usualmente requería la preparación de
informes, planos, manuales y demás especificaciones. A veces se incluyen
además prototipos u otra clase de modelos físicos.
Hay que describir con los detalles suficientes los atributos físicos y las
características de funcionamiento de la solución propuesta, de manera que las
personas que deben aprobarla, los encargados de su construcción, y quienes la
manejarán y conservarán, puedan desempeñar satisfactoriamente sus funciones.
El hecho de que alguien distinto de nosotros por lo general construya, opere y
cuide nuestras obras, hace que adquiera especial importancia la presentación
cuidadosa por escrito y la comunicación exacta de ellas.
Controla la producción
El control de la producción, es un ideal para un ingeniero solo, a menos que se
trate de una pequeña empresa, pero es una posibilidad real para una organización
grande y es el meollo de la filosofía de la llamada calidad total.
Esto es fundamental porque entre los diseños y prototipos y los productos reales
puede haber grandes diferencias, bien porque no se siguen estrictamente las
especificaciones de diseño, bien porque no se cuenta con los equipos adecuados
para efectuar los procesos de fabricación y montaje, porque la habilidad y la
experiencia del personal encargado de esta fase son suficientes, por la
combinación de varios de los anteriores factores.
Analiza las fallas y retroalimenta el diseño y la fabricación
El análisis de fallas es una disciplina especializada para la que no todos los
ingenieros están capacitados. Sin embargo los diseñadores en general, deben
94
estar en capacidad de apreciar las causas por las que su diseño fallo. Si el
ingeniero o grupo de trabajo puede realizar este análisis sería magnifico, en caso
contrario habrá que asesorarse de los especialistas. En cualquier evento la
determinación del por qué de una falla es fundamental para hacer las correcciones
necesarias sea en el diseño, en el material utilizado, en el proceso de fabricación
y montaje, en la operación o en el mantenimiento.
Todas las causas de fallas no son, de ninguna manera imputables al diseño. En el
caso de los elementos y sistemas materiales, además de las causas señaladas, el
ambiente es fundamental y procesos como la oxidación, la corrosión, la
degradación térmica el desgaste y otras causas, que a veces son del todo
previsibles en el diseño, pueden ocasionar la falta.
En los casos de sistemas no materiales además de problemas de lenguaje y
comprensión la naturaleza de las organizaciones sociales y su comportamiento
lleva a veces a variaciones y situaciones nuevas que cambian por completo el
entorno para el que se propuso una solución. Obviamente, que de todas maneras,
el estudio de estas fallas llevará al mejoramiento del diseño en todos los sentidos.
95
SEGUNDA UNIDAD: CONCEPTOS BÁSICOS DE INGENIERÍA ELECTRÓNICA.
CAPÍTULO 6. CONCEPTOS
6.1 CONCEPTOS FÍSICOS
NATURALEZA ELÉCTRICA DE LA MATERIA
Desde la antigüedad se conoce la existencia de una interacción entre los objetos
materiales que no se pone de manifiesto en todo momento, como ocurre con el
peso. Sólo se aprecia directamente cuando la materia está en un estado
determinado; cuando está electrizada. De todos es conocido el efecto de frotar
una varilla de plástico o de vidrio: estas sustancias adquieren entonces la
propiedad de atraer pequeños objetos.
Hoy se sabe que la interacción eléctrica tiene su origen en una propiedad de las
partículas elementales llamada carga eléctrica. A diferencia de la masa, que existe
bajo una única forma, la carga puede ser de dos tipos, que designamos como
positiva y negativa. Esto se evidencia en el hecho de que los cuerpos electrizados
pueden atraerse o repelerse. Hay partículas que carecen de carga y se dice que
son neutras.
A pesar de que la fuerza entre cargas eléctricas es mucho más intensa que la
atracción gravitatoria, no la percibimos en condiciones normales. La razón es que
la materia ordinaria está compuesta por partículas con carga positiva (protones) y
otras con carga igual pero negativa (electrones), además de las que no tienen
ninguna carga o neutrones.
En una muestra de materia común hay el mismo número de protones que de
electrones, por lo que sus efectos eléctricos sobre otros cuerpos tienden a
cancelarse. Sólo se perciben cuando hacemos que la muestra tenga un exceso o
defecto de electrones transfiriéndolos a otro lugar. Es lo que ocurre cuando se
frota una varilla de vidrio (pierde electrones y adquiere carga +) o una de baquelita
(gana electrones y se carga negativamente).
Sin embargo la carga total no sufre variación; se conserva. Lo que ocurre es que
los electrones se transfieren al paño con que se frota o son cedidos por él,
quedando con una carga igual y opuesta a la del cuerpo electrizado.
Un cuerpo cargado atrae a otro neutro porque atrae a las cargas de signo
contrario y repele a las del mismo signo, produciendo una separación o
polarización de las cargas del cuerpo neutro. Como veremos, la fuerza
electrostática disminuye con la distancia, por lo que la atracción es más intensa
que la repulsión. Si entran en contacto, el exceso de cargas puede repartirse entre
los dos cuerpos, que entonces se repelerán.
96
Una cantidad de carga cualquiera sólo puede ser múltiplo entero de la carga del
electrón. Decimos que está cuantizada, que se presenta en cantidades discretas o
cuantos. Si bien la carga elemental es muy pequeña, no es infinitesimal; por tanto,
cuando hablemos de diferenciales de carga entenderemos que se trata de una
cantidad pequeña a escala macroscópica pero grande a escala atómica.
La interacción eléctrica es la responsable de la estructura de los elementos y
compuestos químicos que forman la materia. Los electrones de un átomo se unen
a los protones del núcleo mediante fuerzas eléctricas. A su vez, los átomos se
unen entre sí de diversas formas en virtud de atracciones eléctricas o enlaces. La
manera en que se realizan dichos enlaces da lugar a la enorme variedad de
sustancias, con sus propiedades tan diferentes: desde el estado de agregación
(sólidos, líquidos o gases) hasta la conductividad, todas tienen su origen y
explicación en las interacciones entre cargas.
Por ejemplo, en algunas sustancias los electrones están fuertemente ligados a los
núcleos y su movilidad es escasa: se dice que son aislantes eléctricamente. Sin
embargo hay otras, como los metales, que tienen electrones prácticamente libres
para desplazarse por la sustancia y son capaces de transportar la carga eléctrica:
decimos que son conductores. En realidad hay toda una gama entre uno y otro
extremo.
En resumen:
- Las cargas eléctricas existen bajo dos formas: positivas y negativas. Las cargas
del mismo signo se repelen y las de distinto signo se atraen.
- La carga está cuantizada: siempre es un múltiplo entero de la carga elemental.
- La materia en su conjunto es neutra, con igual número de cargas positivas que
negativas. La carga total, considerando su suma algebraica, se conserva.
6.1.1 Carga eléctrica
Lá matéria está formada por átomos eletricamente neutros. Cada átomo posee un
pequeño núcleo que contiene protones dotados cada uno con una carga positiva y
neutrones de carga nula. Rodeando al núcleo existe un número igual de
electrones negativamente cargados. El electrón y el protón tienen cargas de igual
magnitud pero distinto signo. La carga del protón es e y la del electrón -e, siendo e
la unidad fundamental de carga. Todas las cargas se presentan en cantidades
enteras de la unidad fundamental de carga e. Es decir, la carga está cuantizada.
Toda carga Q presente en la naturaleza puede escribirse de la forma Q = Ne,
siendo N un número entero. La cuantización de la carga no se observa
normalmente porque N es casi siempre un número muy grande.
97
La carga no se crea, sino simplemente se transfiere. La carga neta de un sistema
considerada globalmente no cambia. Es decir, la carga se conserva. La ley de
conservación de la carga es una ley fundamental de la naturaleza. Aunque en
ciertos procesos puede ocurrir que los electrones se creen o se aniquilen, en todos
se producen o se destruyen cantidades iguales de cargas negativas y positivas, de
manera que la carga del universo no varía.
La unidad de carga es el Culombio. La unidad fundamental de carga eléctrica e
está relacionada con el culombio por e = 1,60 x 10-19 C.
Materiales conductores: aquellos en los que parte de los electrones pueden
moverse libremente en el seno del material (metales).
Materiales aislantes: todos los electrones están ligados a los átomos próximos y
ninguno puede moverse libremente (madera, vidrio).
6.1. 2 Ley de Coulomb82
La fuerza ejercida por una carga sobre otra fue estudiada por Charles Coulomb
(1736-1806) mediante una balanza de torsión de su propia invención.
Figura 6.1: Balanza de torsión de Coulomb
En el experimento de Coulomb las esferas cargadas tenían un radio mucho menor
que la distancia entre ellas, de modo que las cargas podían considerarse como
puntales. Coulomb utilizó el fenómeno de inducción para producir esferas
82
TIPLER, Paúl A, Física, REVERTÉ, Barcelona 1996
98
igualmente cargadas y poder variar la carga depositada sobre las esferas. Por
ejemplo, comenzando con una carga q0 sobre cada esfera, podía reducir la carga
a 1 / 2q 0 conectando a tierra una de las esferas para descargarla y después
poniendo las dos esferas en contacto. Los resultados de los experimentos de
Coulomb y otros científicos sobre las fuerzas ejercidas por una carga puntual
sobre otra, se resumen en la ley de Coulomb:
La fuerza ejercida por una carga puntual sobre otra está dirigida a lo largo de
la línea que las une. La fuerza varía inversamente con el cuadrado de la
distancia que separa las cargas y es proporcional al producto de las cargas.
Es repulsiva si tienen signos iguales y de atracción si tiene signos opuestos.
La figura 7.2 muestra las fuerzas ejercidas entres dos cargas del mismo signo y
entre dos cargas del signo contrario.
Figura 7.2: (a) Las cargas iguales se repelen, mientras que (b) las cargas
opuestas se atraen.
La ley de Coulomb puede establecerse más simplemente utilizando una expresión
matemática. Sean q1 y q2 las dos cargas puntuales separadas una distancia r12 el
módulo del vector r12 es r12 que señala desde la carga q1 a la carga q2. La fuerza
ejercida F12 por la carga q1 sobre la carga q2 viene dada entonces por:
En donde r12 es el vector unidad que señala desde q1 hacia q2 y k es la constante
de Coulomb que tiene el valor k= 8,99 x 1O9 N·m2/C2 dada por la ecuación:
La fuerza F21, ejercida por q2 sobre q1 es el valor negativo de F12 según la tercera
ley de Newton. Es decir, F21, posee el mismo módulo de F12 pero su sentido es
opuesto. La magnitud de la fuerza eléctrica ejercida por una carga q1 sobre otra
carga q2 situada a la distancia r viene dada por:
99
Donde:
Si ambas cargas tienen el mismo signo, es decir, si ambas son positivas o ambas
negativas, la fuerza es repulsiva. Si las dos cargas tienen signos opuestos la
fuerza es atractiva. El principio de superposición de fuerzas se cumple para un
sistema discreto de cargas: la fuerza neta ejercida sobre una carga por un sistema
de cargas se determina por la suma de las fuerzas separadas ejercidas por cada
carga del sistema.
La constante eléctrica K viene a ser 1020 veces mayor que la constante
gravitatoria G. Lo que indica que el campo gravitatorio es muy débil comparado
con el eléctrico. Esta diferencia tiene una consecuencia muy útil: en el estudio de
los fenómenos eléctricos los efectos gravitatorios son despreciables.
6.1.3 Corriente
La electricidad ha sido uno de los descubrimientos más importantes de los últimos
siglos. Ella ha conducido a grandes avances industriales y al alcance de altos
niveles de confort en el mundo moderno.
La electricidad o corriente eléctrica es el flujo de electrones de una localización a
otra, a través de un conductor. Históricamente, la corriente eléctrica se definió
como un flujo de cargas positivas y se fijó el sentido convencional de circulación
de la corriente como un flujo de cargas desde el polo positivo al negativo. Sin
embargo, posteriormente se vio que en sólidos metálicos, como los cables, las
cargas positivas no se mueven y solamente lo hacen las negativas, esto es los
electrones, los cuales fluyen en sentido contrario al convencional, si bien este no
es el caso en la mayor parte de los conductores no metálicos.
Una corriente eléctrica, puesto que se trata de un movimiento de cargas, produce
un campo magnético.
En el Sistema Internacional de Unidades, la unidad de medida de la intensidad de
corriente eléctrica es el amperio, representado con el símbolo A.
El aparato utilizado para medir corrientes eléctricas es el galvanómetro.
100
Corriente continua o directa: es el flujo de electrones en una sola dirección. Ej:
batería automóvil; rayo.
Corriente alterna: es el flujo bidireccional de electrones a través de un conductor,
en el tiempo. El paso de electrones en una dirección y luego en otra, constituye un
ciclo. Se mide en Hertz (Hz).En Chile la frecuencia normal es de 50 Hz y en
Estados Unidos de Norteamérica (EE.UU.), de 60 ciclos por segundo.
Intensidad: es la cantidad de flujo eléctrico a través de un conductor. Otra
definición no dice que la cantidad de carga eléctrica que pasa a través de una
sección en una unidad de tiempo es llamada Intensidad. La unidad en el Sistema
internacional de unidades es el amperio (A).
El valor i de la intensidad instantánea será:
Si la intensidad permanece constante, en cuyo caso se denota I, y utilizando
incrementos finitos de tiempo, se puede definir como:
Si la intensidad es variable la fórmula anterior da el valor medio de la intensidad en
el intervalo de tiempo considerado.
6.1.4 Voltaje
Es la fuerza fundamental o “presión” que causa la electricidad al fluir a través de
un conductor. Se conoce también como diferencia de potencial y se mide en
voltios (V). La diferencia de potencial entre dos puntos (1 y 2) de un campo
eléctrico es igual al trabajo que realiza dicho campo sobre la unidad de carga
positiva para transportarla desde el punto 1 al punto 2. Es independiente del
camino recorrido por la carga y depende exclusivamente del potencial de los
puntos 1 y 2 en el campo; se expresa por la fórmula:
Donde:
V1 - V2 es la diferencia de potencial
E es la Intensidad de campo en newton/culombio
101
r es la distancia en metros entre los puntos 1 y 2
Igual que el potencial, en el Sistema Internacional de Unidades la diferencia de
potencial se mide en voltios.
Si dos puntos que tienen una diferencia de potencial se unen mediante un
conductor, se producirá un flujo de corriente eléctrica. Parte de la carga que crea
el punto de mayor potencial se trasladará a través del conductor al punto de menor
potencial y, en ausencia de una fuente externa (generador), esta corriente cesará
cuando ambos puntos igualen su potencial eléctrico.
Que dos puntos tengan igual potencial eléctrico no significa que tengan igual
carga.
6.1.5 Ley de OHM
La historia nos dice que esta ley fue formulada por Georg Simón Ohm en 1827, en
la obra Die galvanische Kette, mathematisch bearbeitet (Trabajos matemáticos
sobre los circuitos eléctricos), basándose en evidencias empíricas. La formulación
original, es:
Siendo J la densidad de la corriente, σ la conductividad eléctrica y E el campo
eléctrico (J y E magnitudes vectoriales), sin embargo se suele emplear fórmulas
simplificadas para el análisis de los circuitos.
La ley de Ohm, establece que la intensidad de la corriente eléctrica que circula por
un dispositivo es directamente proporcional a la diferencia de potencial aplicada e
inversamente proporcional a la resistencia del mismo, según expresa la fórmula
siguiente:
En donde, empleando unidades del Sistema internacional:
I = Intensidad en amperios (A)
V = Diferencia de potencial en voltios (V)
R = Resistencia en ohmios (Se representa con la letra griega Ω).
¿De dónde se deduce esta ley?
102
La relación
, que relaciona la Densidad de corriente con la
Conductividad para un Campo eléctrico dado, es la fundamental de la conducción
eléctrica pero es más cómodo trabajar con tensiones e intensidades que con
densidades y campos eléctricos por lo que si consideramos un conductor de
longitud L y sección constante A por el que circula una corriente de intensidad I y
sea Va y Vb la los potenciales en sus extremos y la conductividad σ es
independiente de la densidad de corriente J tendremos, en condiciones normales,
que:
Al factor
Se le denomina conductancia del hilo conductor. La inversa de la conductancia es
la resistencia. Es decir
Como la inversa de la conductibilidad (o conductividad) es la resistividad
tendremos que
por lo que la resistencia será:
Por lo que ahora podemos poner la intensidad en función de R, quedando;
Si a Va - Vb, ósea a la diferencia de potencial, le llamamos V tendremos que
103
6.2. CONCEPTOS ELECTRÓNICOS
6.2.1 Circuito.
En telecomunicaciones, electrónica y electricidad el término circuito tiene los
siguientes significados:
1.
El trayecto completo entre dos terminales sobre los que se pueden
establecer comunicaciones en unidireccionales o bidireccionales.
2.
Un trayecto electrónico entre dos o más puntos, capaz de proporcionar un
número de canales.
3.
Un número de conductores enlazados con el propósito de transportar
corriente eléctrica.
4.
Un trayecto en bucle cerrado entre dos o más puntos, usado para la
transferencia de señales.
5.
Una serie de elementos eléctricos y/o electrónicos, tales como resistencias,
inductancias, capacidades, transistores y fuentes de alimentación, interconectados
en uno o más bucles cerrados.
6.
Conjunto de componentes conectados eléctricamente entre si con el
propósito de generar, transportar o modificar señales eléctricas.
7.
Cuando los conductores están formados por láminas de material conductor
depositado sobre una placa aislante, el conjunto se denomina circuito impreso.
6.2.2 Reglas de Kirchhoff
Existen dos reglas, llamadas reglas de Kirchhoff, que se aplican a cualquier
circuito en estado estacionario:
1. La suma algebraica de las variaciones de potencial a lo largo de cualquier
bucle o malla del circuito debe ser igual a cero.
2. En un punto o nudo de ramificación de un circuito en donde puede dividirse la
corriente. La suma de las corrientes que entran en el nodo debe ser igual a la
suma de las corrientes que salen del mismo.
La regla 1, llamada regla de las mallas, se deduce a partir del simple hecho de que
en el estado estacionario la diferencia de potencial entre dos puntos cualesquiera
es constante. En estado estacionario, el campo eléctrico en cualquier punto (fuera
de una fuente fem) es debido a la carga acumulada sobre superficies de los
104
bornes de la batería, resistencia, cables, u otros elementos del circuito. Como el
campo eléctrico es conservativo, existe una función potencial en cualquier punto
del espacio (excepto en el interior de una fuente de fem). Según nos desplazamos
a lo largo de la malla del circuito, el potencial puede aumentar o disminuir en
función que encontremos con una resistencia o una batería, pero una vez
recorrida la malla y se ha llegado al punto desde el que se comenzó, la variación
neta de potencial debe ser igual a cero. Esta regla es una consecuencia directa
del principio de conservación de la energía. Si tenemos una carga q en un punto
donde el potencial es V, la energía potencial de la carga es qV. Cuando la carga
recorre un bucle en un circuito, pierde o gana energía al atravesar resistencia,
baterías u otros elementos, pero cuando vuelve a su punto de partida, su energía
deber ser de nuevo qV.
Figura 8: Circuito simple en el que no pueden sustituirse las resistencias en serie o
en paralelo por su resistencia equivalente. Las diferencias de potencial a lo largo
de las resistencias R1 y R2 no son iguales debido a la existencia de la fem ε2 y por
tanto, no están en paralelo. Obsérvese también que estas resistencias no están
conectadas entre sí por los extremos. Las resistencias no soportan la misma
corriente y, por tanto, tampoco están en serio.
La segunda regla de Kirchoff, llamada regla de los nudos, se deduce de la
conservación de la carga. Esta regla es necesaria para circuitos de múltiples
mallas que contienen puntos en los que la corriente puede dividirse. En estado
estacionario no hay posterior acumulación de carga eléctrica en ningún punto del
circuito, de tal modo que la cantidad de carga que entra en un punto debe ser igual
a la que sale de dicho punto. La figura 9 muestra la unión o mudo de tres
conductores que transportan las corrientes I1, I2 e I3. En un intervalo de tiempo ∆t ,
la carga I1 ∆t fluye entrando en la unión por la izquierda. En el mismo intervalo de
tiempo las cargas I2 ∆t e I3 ∆t salen de la unión hacia la derecha. Puesto que no
existe ninguna causa para que se creen o se destruyan cargas en este punto, la
conservación de la carga implica la regla de los nudos que nos da:
I1 = I 2 + I 3
105
Figura 9: Ilustración de la regla de los nudos de Kirchhoff. La corriente I1 en el
punto a es igual a la suma I2 + I3 de las corrientes que salen del punto a.
6.2.3 Fuentes
Es un dispositivo o subsistema electrónico que convierte la corriente alterna de la
red en otro tipo de corriente adecuada para aplicación que se le vaya a dar.
La fuente de energía se específica por el voltaje que aplica al equipo y por la
corriente que puede suministrar, así como la naturaleza del voltaje, que puede ser:
de corriente directa (CD), o de corriente alterna (CA).
La manera de producir energía eléctrica puede ser por medios químicos para las
fuentes de voltaje de CD, o bien por medios electromecánicos para las fuentes de
CA; aunque también por medios electrónicos se puede construir una fuente de
voltaje de CD (comúnmente llamado eliminador de batería), o fuente de voltaje de
CA denominada generador de señales.
Las fuentes electrónicas de CD (eliminador de batería) se fabrican a partir de una
fuente de CA y componentes electrónicos y eléctricos que convierten el voltaje de
CA a voltaje de CD.
Las pilas o baterías es un ejemplo claro de un medio químico para producir
energía eléctrica de CD.
La red que alimenta a las industrias, casas, etc., es una fuente de energía eléctrica
de CA. Es producida por medios electromecánicos y es transferida por equipos o
componentes eléctricos a través de una red de distribución.
Para las fuentes de voltaje de CD, se denotará esta variable eléctrica por la letra
E, mientras que, para las fuentes de voltaje de CA se denotará por la letra e.
Teniendo en cuenta los conceptos de variables eléctricas descritos anteriormente
de corriente y voltaje, entonces una fuente de energía eléctrica se utiliza, para
hacer funcionar a un aparato o equipo eléctrico o electrónico, al aplicarle un voltaje
y suministrarle una corriente.
Fuente de Voltaje de CD
106
La fuente de voltaje de CD, se denomina así, porque la fuerza eléctrica produce un
movimiento de electrones en un solo sentido. Debido a esta característica, la
fuerza eléctrica tiene un polo positivo en un terminal de la fuente y un polo
negativo en el otro terminal. El sentido de la corriente en este tipo de fuentes
siempre será de menos a más.
El símbolo que representa a una fuente de voltaje de CD es:
Si se gráfica la señal de voltaje con respecto al tiempo, se obtiene una línea
horizontal al eje t (tiempo). Una buena fuente de voltaje de CD es aquella que
mantiene el nivel de voltaje dentro de una tolerancia aceptable, así como ciertas
ondulaciones de voltaje que se generan específicamente en las fuentes
electrónicas de CD, ya que las baterías, por su naturaleza, no las producen.
Figura 10: Gráfica de voltaje-tiempo de una fuente ideal o de naturaleza química.
Figura 11: Gráfica de Voltaje-Tiempo de una Fuente Real Electrónica.
El efecto de la ondulación, se genera porque el voltaje de la fuente CD es obtenido
de una de CA, convirtiendo el voltaje por medio de dispositivos eléctricos y
electrónicos a voltaje de CD, haciendo imposible eliminar algunas variaciones de
voltaje de CA.
La fuente de voltaje de CD se especifica, tanto por su voltaje, como por la
corriente que puede suministrar.
107
Fuente de Voltaje de CA
Se denomina de esta manera, porque la fuerza eléctrica que impulsa a los
electrones cambia de polaridad en forma alternada, de manera que en un instante
de tiempo, los extremos de la fuente tendrán una polaridad y un instante después,
la polaridad en los extremos se invertirá. Este fenómeno se repite indefinidamente,
de manera que, si la fuente esta energizando a un equipo, la corriente que fluye
por el equipo cambia de sentido en forma alternada, pero siempre el sentido de la
corriente será, del terminal que tenga en ese instante la polaridad negativa al otro
terminal que por supuesto tiene polaridad positiva. Debido a esto, las fuentes
varían su amplitud de voltaje con respecto al tiempo y también a la forma de
generación que tengan, siendo las más usuales: la forma de onda senoidal y la
onda cuadrada.
Las fuentes de CA de tipo senoidal, son denominadas así, porque las variaciones
del voltaje con respecto al tiempo, esta representan por la gráfica de la función
seno. Este tipo de fuente es la que proporcionan las empresas de energía para el
suministro de luz eléctrica.
Para las fuentes de este tipo, la unidad de medida de voltaje el llamado voltaje
eficaz o R.M.S. porque es el voltaje efectivo de la señal y se referencia como
e(rms).
Para las fuentes de CA de onda cuadrada el concepto de voltaje eficaz se refiere
al valor máximo.
El símbolo para una fuente de CA es un círculo y dentro de él se dibuja que tipo de
forma de voltaje tiene:
Las fuentes de voltaje de CA, además del voltaje también se especifican la
corriente y la frecuencia que tiene la señal de voltaje.
Conexión de una Fuente de Energía a un Equipo.
Cuando una fuente de energía se conecta a un equipo, debe cumplir con:
a) El voltaje que requiere el equipo sea el mismo que el que proporciona la fuente.
108
b) La corriente que requiera el equipo la pueda suministrar la fuente, pues de lo
contrario la fuente se dañará.
6.2.4 Frecuencia (F)
Es el número de ciclos que hay por unidad de tiempo. La frecuencia se denota por
la letra f y su unidad de medida es el hz, donde un hz, es un ciclo con duración de
un segundo. Además del hz, se tienen múltiplos para mediciones de f.
1hz=1ciclo/s
1kz=1000hz
1Mz=1 000 000hz
1Ghz=1 000 000 000hz
Un ciclo, es la forma o patrón de la señal que se esta repitiendo, y que por
supuesto es simétrica, esto es, todos los ciclos son iguales en tamaño. A este tipo
de señal se le denomina señal periódica.
6.2.5 Periodo (T)
Es el tiempo que dura un ciclo. Para denotar esta variable se utiliza la letra T, y la
unidad de medida es el segundo, teniendo además submúltiplos de medida.
1s (segundo) = 1000ms (mili segundos) = 1 000 000us (micro segundos) = 1 000
000 000ns (nano segundos)
El periodo y la frecuencia son recíprocos uno de otro, es decir, a mayor frecuencia
menor periodo y viceversa, de manera que la fórmula que los relaciona es:
f=1/T
T= 1 / f
De manera la equivalencia de unidades de medida es:
T
s
ms
us
ns
f
hz
khz
Mhz
Ghz
Ejemplo: Dada una señal de voltaje de 60hz de frecuencia, el período será:
109
T = 1/f = 1/60hz = 0.0166s = 16.6ms
La gráfica de una señal de voltaje en forma senoidal con respecto al tiempo es
mostrada en la figura 12, también valores característicos como valor e(rms),
voltaje máximo o pico (ep ó emax), que puede se el máximo positivo o máximo
negativo, y además el voltaje de pico a pico (epp). Las relaciones matemáticas de
estos voltajes se proporcionan debajo de la gráfica, pero normalmente el valor que
se expresa para este tipo de fuente es el voltaje e(rms).
Figura 12: Gráfica una señal de voltaje en forma senoidal con respecto al tiempo
La figura 13, muestra la señal de voltaje de CD de forma cuadrada y que puede
ser la forma de la señal de reloj de una PC.
Figura 13: Gráfica de una señal de voltaje de CD de forma cuadrada
Este tipo de señales pueden ser vistas y cuantificadas por medio de quipos de
medida, como los son voltímetros o multímetros, donde muestra los valores
expresados en números y el osciloscopio donde se ven las distintas formas que
tienen las señales y se puede obtener su periodo y frecuencia.
110
Figura 14
6.2.6 Semiconductores
Un semiconductor es un elemento que se comporta como conductor o como
aislante dependiendo del campo eléctrico en el que se encuentre. Los elementos
químicos semiconductores de la tabla periódica se indican en la tabla siguiente.
Elemento
Grupo
Electrones en
última capa
Cd
II A
2 e-
Al, Ga, B,
III A
In
3 e-
Si, Ge
IV A
4 e-
P, As, Sb
VA
5 e-
Se, Te, (S) VI A
6 e-
la
El elemento semiconductor más usado es el silicio, aunque idéntico
comportamiento presentan las combinaciones de elementos de los grupos II y III
con los de los grupos VI y V respectivamente (AsGa, PIn, AsGaAl, TeCd, SeCd y
SCd). Desde hace algún tiempo se ha comenzado a emplear también el azufre. La
característica común de todos ellos es que son tetravalentes, teniendo el silicio
una configuración electrónica s²p².
Bandas de energía
Supongamos una red cristalina formada por átomos de silicio (o cualquier mezcla
de las mencionadas). Cuando los átomos están aislados, el orbital s (2 estados
con dos electrones) y el orbital p (6 estados con 2 electrones y cuatro vacantes)
tendrán una cierta energía Es y Ep respectivamente (punto A). A medida que
disminuye la distancia interatómica comienza a observarse la interacción mutua
entre los átomos, hasta que ambos orbítales llegan a formar, por la distorsión
creada, un sistema electrónico único. En este momento tenemos 8 orbítales
híbridos sp³ con cuatro electrones y cuatro vacantes (punto B). Si se continúa
disminuyendo la distancia interatómica hasta la configuración del cristal,
111
comienzan a interferir los electrones de las capas internas de los átomos,
formándose bandas de energía (punto C). Las tres bandas de valores que se
pueden distinguir son:
1.
Banda de Valencia. 4 estados, con 4 electrones.
2.
Banda Prohibida. No puede haber electrones con esos valores de energía
en el cristal.
3.
Banda de Conducción. 4 estados, sin electrones.
Conductividad eléctrica del cristal
Para que la conducción de la electricidad sea posible es necesario que haya
electrones en la capa de conducción, así podemos considerar tres situaciones:
•
Los metales, en los que ambas bandas de energía se superponen, son
conductores.
•
Los aislantes, en los que la diferencia existente entre las bandas de
energía, del orden de 6 eV impide, en condiciones normales el salto de los
electrones.
•
Los semiconductores, en los que el salto de energía es pequeño, del orden
de 1 eV, por lo que suministrando energía pueden conducir la electricidad; pero
además, su conductividad puede regularse, puesto que bastará disminuir la
energía aportada para que sea menor el número de electrones que salte a la
banda de conducción; cosa que no puede hacerse con los metales, cuya
conductividad es constante, o más propiamente, poco variable con la temperatura.
Tipos de semiconductores
Semiconductores intrínsecos
Un cristal de silicio forma una estructura tetraédrica similar a la del carbono
mediante enlaces covalentes entre sus átomos, en la figura representados en el
plano por simplicidad. Cuando el cristal se encuentra a temperatura ambiente,
algunos electrones pueden, absorbiendo la energía necesaria, saltar a la banda de
conducción, dejando el correspondiente hueco en la banda de valencia (1). Las
energías requeridas, a temperatura ambiente son de 1,1 y 0,72 eV para el silicio y
el germanio respectivamente.
Obviamente el proceso inverso también se produce, de modo que los electrones
pueden caer desde el estado energético correspondiente a la banda de
conducción, a un hueco en la banda de valencia liberando energía. A este
fenómeno, se le denomina recombinación. Sucede que, a una determinada
temperatura, las velocidades de creación de pares e-h, y de recombinación se
igualan, de modo que la concentración global de electrones y huecos permanece
112
invariable. Siendo n la concentración de electrones (cargas negativas) y p la
concentración de huecos (cargas positivas), se cumple que:
ni = n = p
Siendo ni la concentración intrínseca del semiconductor, función exclusiva de la
temperatura. Si se somete el cristal a una diferencia de tensión, se producen dos
corrientes eléctricas. Por un lado la debida al movimiento de los electrones libres
de la banda de conducción, y por otro, la debida al desplazamiento de los
electrones en la banda de valencia, que tenderán a saltar a los huecos próximos
(2), originando una corriente de huecos en la dirección contraria al campo
eléctrico cuya velocidad y magnitud es muy inferior a la de la banda de
conducción.
Semiconductores extrínsecos
Si a un semiconductor intrínseco, como el anterior, se le añade un pequeño
porcentaje de impurezas, es decir, elementos trivalentes o pentavalentes, el
semiconductor se denomina extrínseco, y se dice que está dopado.
Evidentemente, las impurezas deberán formar parte de la estructura cristalina
sustituyendo al correspondiente átomo de silicio.
Semiconductor extrínseco tipo n
Es el que se ha dopado con elementos pentavalentes (As, P o Sb).
Al tener éstos elementos 5 electrones en la última capa, resultará que al formarse,
como antes, la estructura cristalina, el quinto electrón no estará ligado en ningún
enlace covalente, encontrándose, aún sin estar libre, en un nivel energético
superior a los cuatro restantes. Si como antes, consideramos el efecto de la
temperatura, observaremos que ahora, además de la formación de pares e-h, se
liberarán también los electrones no enlazados, ya que la energía necesaria para
liberar el electrón excedente es del orden de la centésima parte de la
correspondiente a los electrones de los enlaces covalentes (en torno a 0,01 eV).
Así, en el semiconductor aparecerá una mayor cantidad de electrones que de
huecos; por ello se dice que los electrones son los portadores mayoritarios de la
energía eléctrica y puesto que este excedente de electrones procede de las
impurezas pentavalentes, a éstas se las llama donadoras. Aún siendo mayor n
que p, la ley de masas se sigue cumpliendo, dado que aunque aparentemente
sólo se aumente el número de electrones libres, al hacerlo, se incrementa la
probabilidad de recombinación, lo que resulta en un disminución del número de
huecos p, es decir: n > ni = pi > p, tal que: n.p = ni² Por lo que respecta a la
conductividad del material, ésta aumenta enormemente, así, por ejemplo,
113
introduciendo sólo un átomo donador por cada 1000 átomos de silicio, la
conductividad es 24100 veces mayor que la del silicio puro.
Semiconductor extrínseco tipo p
Es el que se ha dopado con elementos trivalentes (Al, B, Ga o In).
En este caso, las impurezas aportan una vacante, por lo que se las denomina
receptoras de electrones. Ahora bien, el espacio vacante no es un hueco como el
formado antes con el salto de un electrón, si no que tiene un nivel energético
ligeramente superior al de la banda de valencia (del orden de 0,01 eV).
En este caso, los electrones saltarán a las vacantes con facilidad dejando huecos
en la banda de valencia en mayor número que electrones en la banda de
conducción, de modo que ahora son los huecos los portadores mayoritarios.
Al igual que en el caso anterior, el incremento del número de huecos se ve
compensado en cierta medida por la mayor probabilidad de recombinación, de
modo que la ley de masas también se cumple en este caso:
p > pi = ni > n, tal que: n·p = ni²
114
CAPITULO 7 ELEMENTOS
7.1
ELEMENTOS BÁSICOS
7.1.1 Resistencias83
Se denomina resistencia eléctrica, R, de una sustancia a la oposición que
encuentra la corriente eléctrica para recorrerla. Su valor se mide en ohmios y se
designa con la letra griega omega mayúscula (Ω).
Esta definición es válida para la corriente continua y para la corriente alterna
cuando se trate de elementos resistivos puros, esto es, sin componente inductiva
ni capacitiva. De existir estos componentes reactivos, la oposición presentada a la
circulación de corriente recibe el nombre de impedancia.
Según sea la magnitud de esta oposición, las sustancias se clasifican en
conductoras, no conductoras o aislantes y semiconductoras.
Imagen de un resistor, elemento destinado a introducir determinada resistencia
eléctrica en un circuito.
Comportamientos ideal y real
Una resistencia ideal es un elemento pasivo que disipa energía en forma de calor.
Su ecuación de definición es:
donde u(t) es la diferencia de potencial aplicada a sus bornes e i(t) la intensidad
que circula. En general, una resistencia real podrá tener diferente comportamiento
en función del tipo de corriente que circule por ella.
83
www.wkipedia.com
115
Comportamiento en corriente continua
Una resistencia real en corriente continua (c.c.) no se comporta de la misma forma
que si fuera ideal, esto es, transformando la energía eléctrica en calor. Su
ecuación pasa a ser:
Que es la conocida ley de Ohm para c.c.
Comportamiento en corriente alterna
A bajas frecuencias, una resistencia real en corriente alterna (c. a.) se comportará
de la misma forma que lo haría una ideal. En los circuitos de c. a. la resistencia se
considera una magnitud compleja sin parte imaginaria o, lo que es lo mismo con
argumento nulo; cuya representación binómico y polar será:
En altas frecuencias, aparecen en las resistencias reales efectos inductivos, que
son más importantes conforme aumenta la frecuencia. En estos casos, para
analizar los circuitos, la resistencia real se sustituye por una impedancia inductiva,
esto es, una resistencia en serie con una bobina, ambos como elementos ideales.
En los conductores, además, aparecen otros efectos entre los que cabe destacar
el efecto pelicular.
Resistencia de un conductor84
Cuando fluye una carga por un material dado, experimente una oposición al flujo.
Esa oposición se llama resistencia del material. La resistencia depende de la
longitud, el área de corte transversal, el tipo de material y la temperatura opcional.
A una temperatura constante, la resistencia del material es:
R=
ρl
A
Donde R es la resistencia, ρ es la resistividad del material en ohms – metro
(Ω.m) , l es la longitud en metros o centímetros y A es el área de corte transversal
84
Electrónica Práctica 1, McGRAW-HILL
116
en metros cuadrados. La resistencia de un material es directamente proporcional
a su longitud e inversamente proporcional a su área de corte transversal.
7.1.2 Diodos85
Un diodo es un dispositivo que permite el paso de la corriente eléctrica en una
única dirección. De forma simplificada, la curva característica de un diodo (I-V)
consta de dos regiones, por debajo de cierta diferencia de potencial, se comporta
como un circuito abierto (no conduce), y por encima de ella como un circuito
cerrado con muy pequeña resistencia eléctrica.
Debido a este comportamiento, se les suele denominar rectificadores, ya que son
dispositivos capaces de convertir una corriente alterna en corriente continua.
Tipos de diodos
Diodo pn ó Unión pn
Los diodos pn son uniones de dos materiales semiconductores extrínsecos tipos
p y n, por lo que también reciben la denominación de unión pn. Hay que destacar
que ninguno de los dos cristales por separado tiene carga eléctrica, ya que en
cada cristal, el número de electrones y protones es el mismo, de lo que podemos
decir que los dos cristales, tanto el p como el n, son neutros. (Su carga neta es 0).
Al unir ambos cristales, se manifiesta una difusión de electrones del cristal n al p
(Je).
Al establecerse estas corrientes aparecen cargas fijas en una zona a ambos lados
de la unión, zona que recibe diferentes denominaciones como zona de carga
espacial, de agotamiento, de deflexión, de vaciado, etc.
A medida que progresa el proceso de difusión, la zona de carga espacial va
incrementando su anchura profundizando en los cristales a ambos lados de la
unión. Sin embargo, la acumulación de iones positivos en la zona n y de iones
negativos en la zona p, crea un campo eléctrico (E) que actuará sobre los
85
www.wikipedia.com
117
electrones libres de la zona n con una determinada fuerza de desplazamiento, que
se opondrá a la corriente de electrones y terminará deteniéndolos.
Este campo eléctrico es equivalente a decir que aparece una diferencia de tensión
entre las zonas p y n. Esta diferencia de potencial (V0) es de 0,7 V en el caso del
silicio y 0,3 V si los cristales son de germanio.
La anchura de la zona de carga espacial una vez alcanzado el equilibrio, suele ser
del orden de 0,5 micras pero cuando uno de los cristales está mucho más dopado
que el otro, la zona de carga espacial es mucho mayor.
Formación de la zona de carga espacial
Al dispositivo así obtenido se le denomina diodo, que en un caso como el descrito,
tal que no se encuentra sometido a una diferencia de potencial externa, se dice
que no está polarizado. Al extremo p, se le denomina ánodo, representándose por
la letra A, mientras que la zona n, el cátodo, se representa por la letra C (o K).
A (p)
C ó K (n)
Representación simbólica del diodo pn
118
Polarización Directa
Cuando se somete al diodo a una diferencia de tensión externa, se dice que el
diodo está polarizado, pudiendo ser la polarización directa o inversa.
En este caso, la batería disminuye la barrera de potencial de la zona de carga
espacial, permitiendo el paso de la corriente de electrones a través de la unión; es
decir, el diodo polarizado directamente conduce la electricidad.
Para que un diodo esté polarizado directamente, tenemos que conectar el polo
positivo de la batería al ánodo del diodo y el polo negativo al cátodo. En estas
condiciones podemos observar que:
- El polo negativo de la batería repele los electrones libres del cristal n, con lo que
estos electrones se dirigen hacia la unión p-n.
- El polo positivo de la batería atrae a los electrones de valencia del cristal p, esto
es equivalente a decir que empuja a los huecos hacia la unión p-n.
- Cuando la diferencia de potencial entre los bornes de la batería es mayor que la
diferencia de potencial en la zona de carga espacial, los electrones libres del
cristal n, adquieren la energía suficiente para saltar a los huecos del cristal p, los
cuales previamente se han desplazado hacia la unión p-n.
- Una vez que un electrón libre de la zona n salta a la zona p atravesando la zona
de carga espacial, cae en uno de los múltiples huecos de la zona p convirtiéndose
en electrón de valencia. Una vez ocurrido esto el electrón es atraído por el polo
positivo de la batería y se desplaza de átomo en átomo hasta llegar al final del
cristal p, desde el cual se introduce en el hilo conductor y llega hasta la batería.
- De este modo, con la batería cediendo electrones libres a la zona n y atrayendo
electrones de valencia de la zona p, aparece a través del diodo una corriente
eléctrica constante hasta el final.
119
Polarización directa
Curva característica del diodo
Tensión umbral, de codo o de partida (Vγ ).La tensión umbral (también llamada
barrera de potencial) de polarización directa coincide en valor con la tensión de la
zona de carga espacial del diodo no polarizado. Al polarizar directamente el diodo,
la barrera de potencial inicial se va reduciendo, incrementando la corriente
ligeramente, alrededor del 1% de la nominal. Sin embargo, cuando la tensión
externa supera la tensión umbral, la barrera de potencial desaparece, de forma
que para pequeños incrementos de tensión se producen grandes variaciones de la
intensidad.
Corriente máxima (Imax ).Es la intensidad de corriente máxima que puede
conducir el diodo sin fundirse por el efecto Joule. Dado que es función de la
cantidad de calor que puede disipar el diodo, depende sobre todo del diseño del
mismo.
Corriente inversa de saturación (Is ).Es la pequeña corriente que se establece al
polarizar inversamente el diodo por la formación de pares electrón-hueco debido a
la temperatura, admitiéndose que se duplica por cada incremento de 10º en la
temperatura.
Corriente superficial de fugas Es la pequeña corriente que circula por la
superficie del diodo (ver polarización inversa), esta corriente es función de la
tensión aplicada al diodo, con lo que al aumentar la tensión, aumenta la corriente
superficial de fugas.
Tensión de ruptura (Vr ). Es la tensión inversa máxima que el diodo puede
soportar antes de darse el efecto avalancha.
Teóricamente, al polarizar inversamente el diodo, este conducirá la corriente
inversa de saturación; en la realidad, a partir de un determinado valor de la
tensión, en el diodo normal o de unión abrupta la ruptura se debe al efecto
avalancha; no obstante hay otro tipo de diodos, como los Zener, en los que la
ruptura puede deberse a dos efectos:
Efecto avalancha (diodos poco dopados). En polarización inversa se generan
pares electrón-hueco que provocan la corriente inversa de saturación; si la tensión
inversa es elevada los electrones se aceleran incrementando su energía cinética
de forma que al chocar con electrones de valencia pueden provocar su salto a la
banda de conducción. Estos electrones liberados, a su vez, se aceleran por efecto
de la tensión, chocando con más electrones de valencia y liberándolos a su vez. El
120
resultado es una avalancha de electrones que provoca una corriente grande. Este
fenómeno se produce para valores de la tensión superiores a 6 V.
Efecto Zener (diodos muy dopados). Cuanto más dopado está el material, menor
es la anchura de la zona de carga. Puesto que el campo eléctrico E puede
expresarse como cociente de la tensión V entre la distancia d; cuando el diodo
esté muy dopado, y por tanto d sea pequeño, el campo eléctrico será grande, del
orden de 3·105 V/cm. En estas condiciones, el propio campo puede ser capaz de
arrancar electrones de valencia incrementándose la corriente. Este efecto se
produce para tensiones de 4 V o menores.
Para tensiones inversas entre 4 y 6 V la ruptura de estos diodos especiales, como
los Zener, se puede producir por ambos efectos.
Otros diodos
- Diodo Tener
Un diodo Zener, es un diodo de silicio que se ha construido para que funcione en
las zonas de rupturas. Llamados a veces diodos de avalancha o de ruptura, el
diodo zener es la parte esencial de los reguladores de tensión casi constantes con
independencia de que se presenten grandes variaciones de la tensión de red, de
la resistencia de carga y temperatura.
Fotografía de un diodo Tener
121
Representación esquemática del diodo Zener
Resistencia Zener
Un diodo zener, como cualquier diodo, tiene cierta resistencia interna en sus
zonas P y N; al circular una corriente a través de éste se produce una pequeña
caída de tensión de ruptura.
En otras palabras: si un diodo zener está funcionando en la zona zener, un
aumento en la corriente producirá un ligero aumento en la tensión. El incremento
es muy pequeño, generalmente de una décima de voltio.
Estabilizador Zener
Los diodos Zener mantienen la tensión entre sus terminales prácticamente
constante, cuando están polarizados inversamente, en un amplio rango de
intensidades y temperaturas, por ello, este tipo de diodos se emplean en circuitos
estabilizadores o reguladores de la tensión tal y como el mostrado en la figura.
Eligiendo la resistencia R y las características del diodo, se puede lograr que la
tensión en la carga (RL) permanezca prácticamente constante dentro del rango de
variación de la tensión de entrada VS.
Estabilizador Zener
Para elegir la resistencia limitadora R adecuada hay que calcular primero cual
puede ser su valor máximo y mínimo, después elegiremos una resistencia R que
se adecue a nuestros cálculos.
122
Donde:
1.
2.
3.
4.
5.
6.
Rmin es el valor mínimo de la resistencia limitadora.
Rmax es el valor máximo de la resistencia limitadora.
Vsmax es el valor máximo de la tensión de entrada.
Vsmin es el valor mínimo de la tensión de entrada.
Vz es la tensión Zener.
ILmin es la mínima intensidad que puede circular por la carga, en
ocasiones, si la carga es desconectable, ILmin suele tomar el valor 0.
7. ILmax es la máxima intensidad que soporta la carga.
8. Izmax es la máxima intensidad que soporta el diodo Zener.
9. Izmin es la mínima intensidad que necesita el diodo zener para mantenerse
dentro de su zona zener o conducción en inversa.
- Diodo avalancha
Un diodo avalancha, es un diodo semiconductor diseñado especialmente para
trabajar en inversa. En estos diodos, poco dopados, cuando la tensión en
polarización inversa alcanza el valor de la tensión de ruptura, los electrones que
han saltado a la banda de conducción por efecto de la temperatura se aceleran
debido al campo eléctrico incrementando su energía cinética, de forma que al
colisionar con electrones de valencia los liberan; éstos a su vez, se aceleran y
colisionan con otros electrones de valencia liberándolos también, produciéndose
una avalancha de electrones cuyo efecto es incrementar la corriente conducida
por el diodo sin apenas incremento de la tensión.
La aplicación típica de estos diodos es la protección de circuitos electrónicos
contra sobre tensiones. El diodo se conecta en inversa a tierra, de modo que
mientras la tensión se mantenga por debajo de la tensión de ruptura sólo será
atravesado por la corriente inversa de saturación, muy pequeña, por lo que la
interferencia con el resto del circuito será mínima; a efectos prácticos, es como si
el diodo no existiera. Al incrementarse la tensión del circuito por encima del valor
de ruptura, el diodo comienza a conducir desviando el exceso de corriente a tierra
evitando daños en los componentes del circuito.
El diodo Zener está también diseñado para trabajar en inversa, aunque el
mecanismo de ruptura es diferente al aquí expuesto.
123
- Diodo Varicap
El Diodo de capacidad variable o Varicap es un tipo de diodo que basa su
funcionamiento en el fenómeno que hace que la anchura de la barrera de
potencial en una unión PN varié en función de la tensión inversa aplicada entre
sus extremos. Al aumentar dicha tensión, aumenta la anchura de esa barrera,
disminuyendo así la capacidad del diodo. De este modo se obtiene un
condensador variable controlado por tensión. Los valores de capacidad obtenidos
van desde 1 a 500 pF. La tensión inversa mínima tiene que ser de 1 V.
La aplicación de estos diodos se encuentra, sobre todo, en la sintonía de TV,
modulación de frecuencia en transmisiones de FM y radio.
Símbolo del diodo varicap
- Foto diodo
Un fotodiodo es un semiconductor construido con una unión PN, sensible a la
incidencia de la luz visible o infrarroja. Para que su funcionamiento sea correcto se
polariza inversamente, con lo que se producirá una cierta circulación de corriente
cuando sea excitado por la luz. Debido a su construcción, los fotodiodos se
comportan como células fotovoltaicas, es decir, en ausencia de luz exterior,
generan una tensión muy pequeña con el positivo en el ánodo y el negativo en el
cátodo. Esta corriente presente en ausencia de luz recibe el nombre de corriente
de oscuridad.
Símbolo del fotodiodo
124
Fotodiodo
Composición
El material empleado en la composición de un fotodiodo es un factor crítico para
definir sus propiedades.
Suelen estar compuestos de silicio, sensible a la luz visible (longitud de onda de
hasta 1µm); germanio para luz infrarroja (longitud de onda hasta aprox. 1,8 µm ); o
de cualquier otro material semiconductor.
Material
Longitud de onda (nm)
Silicio
190–1100
Germanio
800–1700
Indio galio arsénico (InGaAs) 800–2600
sulfuro de plomo
<1000-3500
También es posible la fabricación de fotodiodos para su uso en el campo de los
infrarrojos medios (longitud de onda entre 5 y 20 µm), pero estos requieren
refrigeración por nitrógeno líquido.
Antiguamente se fabricaban exposímetros con un fotodiodo de selenio de una
superficie amplia.
125
- Diodo Schottky
El diodo Schottky llamado así en honor del físico alemán Walter H. Schottky,
también denominado diodo pnpn, es un dispositivo semiconductor que proporciona
conmutaciones muy rápidas entre los estados de conducción directa e inversa
(menos de 1ns en dispositivos pequeños de 5 mm de diámetro) y muy bajas
tensiones umbral (también conocidas como tensiones de codo, aunque en inglés
se refieren a ella como "knee", o sea, de rodilla). La tensión de codo es la
diferencia de potencial mínima necesaria para que el diodo actúe como conductor
en lugar de circuito abierto; esto, claro, dejando de lado la región Zener, que es
cuando más bien existe una diferencia de potencial lo suficientemente negativa
para que -a pesar de estar polarizado en contra del flujo de corriente- éste opere
de igual forma como lo haría regularmente.
Símbolo del Diodo Schottky
A frecuencias bajas un diodo normal puede conmutar fácilmente cuando la
polarización cambia de directa a inversa, pero a medida que aumenta la
frecuencia el tiempo de conmutación puede llegar a ser muy alto, poniendo en
peligro el dispositivo.
El diodo Schottky está constituido por una unión metal-semiconductor (barrera
Schottky), en lugar de la unión convencional semiconductor-semiconductor
utilizada por los diodos normales.
Así se dice que el diodo Schottky es un dispositivo semiconductor "portador
mayoritario". Esto significa que, si el cuerpo semiconductor está dopado con
impurezas tipo N, solamente los portadores tipo N (electrones móviles) jugaran un
papel significativo en la operación del diodo y no se realizará la recombinación
aleatoria y lenta de portadores tipo N y P que tiene lugar en los diodos
rectificadores normales, con lo que la operación del dispositivo será mucho más
rápida.
La alta velocidad de conmutación permite rectificar señales de muy altas
frecuencias y eliminar excesos de corriente en circuitos de alta intensidad.
A diferencia de los diodos convencionales de silicio, que tienen una tensión umbral
—valor de la tensión en directa a partir de la cual el diodo conduce— de 0,6 V, los
diodos Schottky tienen una tensión umbral de aproximadamente 0,2 V a 0,4 V
empleándose, por ejemplo, como protección de descarga de células solares con
baterías de plomo ácido.
126
La limitación más evidente del diodo de Schottky es la dificultad de conseguir
resistencias inversas relativamente elevadas cuando se trabaja con altos voltajes
inversos pero el diodo Schottky encuentra una gran variedad de aplicaciones en
circuitos de alta velocidad para computadoras donde se necesiten grandes
velocidades de conmutación y mediante su poca caída de voltaje en directo
permite poco gasto de energía, otra utilización del diodo Schottky es en variadores
de alta gama para que la corriente que vuelve desde el motor al variador no pase
por el transistor del freno y este no pierda sus facultades.
El diodo Schottky tiene varios tipos del mismo. Por ejemplo los tipos ALS y AS
permiten que los tiempos de conmutación entre los transistores sean mucho
menores puesto que son más superficiales y de menor tamaño por lo que se da
una mejora en la relación velocidad/potencia. El tipo ALS permite mayor potencia y
menor velocidad que la LS, mientras que las AL presentan el doble de velocidad
que las Schottly TTL con la misma potencia.
- Diodo túnel
El Diodo túnel es un diodo semiconductor que tiene una unión pn, en la cual se
produce el efecto túnel que da origen a una conductancia diferencial negativa en
un cierto intervalo de la característica corriente-tensión.
Símbolo del Diodo túnel
La presencia del tramo de resistencia negativa permite su utilización como
componente activo (amplificador/oscilador).
También se conocen como diodos Esaki, en honor del hombre que descubrió que
una fuerte contaminación con impurezas podía causar un efecto de tunelización de
los portadores de carga a lo largo de la zona de agotamiento en la unión. Una
característica importante del diodo túnel es su resistencia negativa en un
determinado intervalo de voltajes de polarización directa. Cuando la resistencia es
negativa, la corriente disminuye al aumentar el voltaje. En consecuencia, el diodo
túnel puede funcionar como amplificador o como oscilador. Esencialmente, este
diodo es un dispositivo de baja potencia para aplicaciones que involucran
microondas y que están relativamente libres de los efectos de la radiación.
127
- Diodo láser
Un diodo láser es dispositivo semiconductor similar a los diodos LED pero que
bajo las condiciones adecuadas emite luz láser. A veces se los denomina diodos
láser de inyección, o por sus siglas inglesas LD o ILD.
Cuando un diodo convencional o LED se polariza en directa, los huecos de la zona
p se mueven hacia la zona n y los electrones de la zona n hacia la zona p; ambos
desplazamientos de cargas constituyen la corriente que circula por el diodo. Si los
electrones y huecos están en la misma región, pueden recombinarse cayendo el
electrón al hueco y emitiendo un fotón con la energía correspondiente a la banda
prohibida (véase semiconductor). Esta emisión espontánea se produce en todos
los diodos, pero sólo es visible en los diodos LED que tienen una disposición
constructiva especial con el propósito de evitar que la radiación sea reabsorbida
por el material circundante, y una energía de la banda prohibida coincidente con el
espectro visible; en el resto de diodos, la energía se disipa en forma de radiación
infrarroja.
En condiciones apropiadas, el electrón y el hueco pueden coexistir un breve
tiempo, del orden de milisegundos, antes de recombinarse, de forma que si un
fotón con la energía apropiada pasa por casualidad por allí durante ese periodo,
se producirá la emisión estimulada (véase láser), es decir, al producirse la
recombinación el fotón emitido tendrá igual frecuencia, polarización y fase que el
primer fotón.
En los diodos láser, el cristal semiconductor tiene la forma de una lámina delgada
lográndose así una unión p-n de grandes dimensiones, con las caras exteriores
perfectamente paralelas. Los fotones emitidos en la dirección adecuada se
reflejarán repetidamente en dichas caras estimulando a su vez la emisión de más
fotones, hasta que el diodo comienza a emitir luz láser, que al ser coherente
debido a las reflexiones posee una gran pureza espectral.
7.1.3 Condensadores
86
Un condensador es un dispositivo capaz de almacenar carga y energía. Está
constituido por dos conductores aislados uno del otro y que reciben el nombre de
placas. Un condensador típico, como el condensador de placas paralelas, es un
dispositivo que se constituye de dos placas conductoras de área A separadas
entre si por una distancia d (Ver Figura No 31).
Si las placas de este condensador las conectamos a un dispositivo de carga, como
puede ser una pila o una fuente, se produce una transferencia de carga de una de
86
TRIPLER, Paúl, Física, REVERTE, Barcelona, 1996
128
las placas a otra, pero esto no dura siempre, la transferencia de carga termina
cuando la diferencia de potencial entre las placas, debida a la carga en las mismas
que son iguales y opuestas, sea igual a la suministrada por la pila. La cantidad de
carga que pueda almacenar el condensador depende de la geometría del mismo,
o sea, depende del tamaño de las placas del condensador y la distancia a la que
estén dichas placas, y es directamente proporcional a la diferencia de potencial
aplicada.
La constante de proporcionalidad es la Capacidad:
Q = CV
Donde:
Q = la carga almacenada.
C = la capacidad del condensador.
V = Diferencia de potencial (Voltaje suministrado por la fuente)
Figura 31: Condensador construido por dos placas conductoras separadas por una
pequeña distancia. Cuando los conductores están conectados a los terminales de
una batería, ésta transfiere carga desde una de las placas a la otra hasta que la
diferencia de potencial entre ambas se hace igual a la diferencia de potencial entre
los extremos de la batería. La cantidad de carga transferida es proporcional a la
diferencia de potencial.
Como ya hemos citado la capacidad depende de la disposición geométrica de las
placas del condensador. Esta capacidad tiene una unidad, la cual en el sistema
internacional es el Faradio, que se define como:
1 faradio = 1 culombio/voltio
129
Como el Faradio es una unidad relativamente grande se utilizan unidades más
pequeñas como: microfaradio (1uF = 10e-6) o el pico faradio(1pF = 10e-9).
Figura 32: Diversos tipos de condensadores
Cálculo de la Capacitancia
El cálculo de la capacidad no es difícil en principio, ya que partiendo de la carga
que se almacena en cada placa, siendo esta en una placa +Q y en la otra -Q, y la
diferencia de potencial V que hay entre ellas. Integrando el campo desde un
conductor al otro se determina entonces la diferencia de potencial V entre ambos.
Como la diferencia de potencial es proporcional a la carga, la capacidad C=Q/V no
depende de Q ni de V.
Podemos distinguir tres casos para los que se puede calcular la diferencia de
potencial, de los cuales sus geométricas son bastantes sencillas. Estos casos son:
el condensador de placas paralelas o el condensador cilíndrico. Para el cálculo de
la diferencia de potencial se puede hallar, calculando primero el campo eléctrico
por la Ley de Gauss o la de Coulomb.
- Capacidad de un condensador de placas paralelas,
Formado por dos placas de la misma superficie A separadas por una distancia s,
pequeña comparada con la longitud y anchura de las placas. Se dispone de una
carga +Q en una placa y –Q en la otra. Como las placas están muy próximas, el
campo en cualquier punto entre las placas (excluyendo los puntos próximos a los
bordes) es aproximadamente igual al campo debido a dos planos de carga
infinitos, iguales y opuestos. Cada placa contribuye con un campo uniforme de
magnitud σ / 2ε 0 , resultando así un campo total E = σ / ε 0 , siendo σ = Q / A la
carga por unidad de área en cada una de las placas. Como el campo que existe
entre las placas de este condensador es uniforme (figura 33), la diferencia de
potencial entre las placas es igual al campo multiplicado por la separación de las
placas, s:
V = Es =
σ
Qs
s=
ε0
ε0 A
130
Siendo
ε 0 = 8.85 x10 −12 F / m = 8.85 pF / m
Figura 33: Las líneas del campo eléctrico entre las placas de un condensador
plano están igualmente espaciadas, lo que indica que el campo es uniforme en
dicha zona.
La capacidad del condensador de placas papeleas es, por tanto:
C=
Q ε0 A
=
V
s
Capacidad del Condensador cilíndrico
Un condensador cilíndrico consta de un pequeño cilindro o alambre conductor, de
radio a y una corteza cilíndrica mayor de radio b concéntrica con la anterior. Un
cable coaxial, como el utilizado en la televisión por cable puede considerarse
como un condensador cilíndrico. La capacidad por unidad de longitud de un cable
coaxial es importante en la determinación de las características de transmisión de
un cable. Supongamos que la longitud del condensador es L y que posee una
carga +Q en el conductor interior y una carga –Q en el exterior. El campo eléctrico
exterior de un alambre o cilindro alargado de carga Q es:
Er =
1
λ
2πε 0 r
=
Q
2πε 0 Lr
131
Figura 34: Condensador cilíndrico
Figura 35: Un cable coaxial es un condensador cilíndrico que posee un alambre
sólido como conductor interno y un blindaje de alambre trenzado como conductor
externo. En este caso se ha desprendido la cubierta exterior de caucho para que
puedan verse los conductores y el aislante de plástico blanco que los separa.
En donde λ = Q / L es la densidad de carga lineal. El campo debido a la carga –Q
sobre la corteza cilíndrica externa es cero dentro de la corteza.
Sea Va el potencial del conductor interno y Vb el del conductor externo.
consiguiente:
b
Vb − Va ) − ∫ E r dr = −
a
Q
2πε 0
b
L∫
a
Por
dr
Q
b
=−
ln
r
2πε 0 L a
Naturalmente, el potencial es mayor en el conductor interno, el cual transporta la
carga positiva, pues las líneas del campo eléctrico están dirigidas desde este
conductor hacia el exterior. La magnitud de esta diferencia de potencial es:
V = V a − Vb =
Q ln(b / a )
2πε 0 L
132
Y la capacidad es:
C=
2πε 0 L
Q
=
V ln(b / a )
Como era de esperar la capacidad del condensador es proporcional a la longitud
del cilindro, o sea, cuanto más grande es la longitud, como la capacidad depende
de la carga por unidad de longitud, para una diferencia de potencial determinada,
mayor capacidad de almacenaje tiene el condensador.
- Capacitancia de un condensador esférico
87
Un condensador esférico esta compuesto por una pequeña esfera conductora
interior de radio R1, y de una corteza esférica mayor concéntrica con la anterior de
radio R2, tal y como se muestra en la figura 36. La esfera interior puede estar
suspendida mediante un aislador. Se hace una pequeña abertura en la corteza
interior de modo que pueda colocarse una carga en la esfera interna. Si esta
abertura es suficientemente pequeña tendrá un efecto despreciable sobre la
simetría esférica del condensador. Para hallar la capacidad situamos una carga
+Q en la esfera interna y otra -Q en la exterior y hallamos la diferencia de
potencial. El campo eléctrico entre los conductores es el mismo que el debido a
una carga puntual Q situada en el origen. Por Gauss se demuestra fácilmente que
el campo en la corteza exterior no contribuye el campo en el interior, o sea, que
para radios r < R1 y r R2 no nos hace falta conocer el campo, ya que se demuestra
por Gauss que E = 0. Entonces el campo eléctrico entre los conductores es pues:
E=K
q
r
Figura 36: Condensador esférico
El potencial de la esfera interior V1 es mayor que el de la esfera exterior, como lo
prueba de hecho que las líneas eléctricas señalan radialmente hacia fuera desde
la esfera interior hacia la esfera exterior. El valor de la diferencia de potencial es:
87
EDMINISTER, Joseph A, Electromagnetismo. McGraw Hill, México, 1994
133
R2 r
R2
R2
r
q
R − R1
V = − ∫ E ⋅ dr = ∫ E dr = ∫ k 2 dr = kq 2
R1
R1
R1
r
R1 R2
Entonces finalmente el valor de la capacidad se calcula con la siguiente fórmula:
C=
R1 R2
R2
= 4πε o R1
k ( R2 − R1 )
R2 − R1
Debemos tener en cuenta lo siguiente para el cálculo de la capacidad, cuando el
radio de la esfera exterior tiende a infinito, la capacidad tiende a ser 4p e 0 R1. Así
pues este resultado nos dice que cuando situamos la corteza exterior al infinito la
capacidad es la de una esfera aislada. Para una esfera de radio R, su capacidad,
definida como el cociente entre la carga y el potencial (respecto al potencial cero
en el infinito), es:
C = 4p e0 R
La capacidad de un conductor esférico aislado es proporcional a su radio.
Obsérvese que la capacidad en los tres casos vistos es proporcional a la
constante e 0 y a una longitud característica del sistema.
7.1.4 Inductores
Los inductores consisten en un hilo conductor enrollado en forma de bobina. Al
pasar una corriente a través de la bobina, alrededor de la misma se crea un
campo magnético que tiende a oponerse a los cambios bruscos de la intensidad
de la corriente (véase Inducción).
Al igual que un condensador, un inductor puede utilizarse para diferenciar entre
señales rápida y lentamente cambiantes. Al utilizar un inductor conjuntamente con
un condensador, la tensión del inductor alcanza un valor máximo a una frecuencia
específica que depende de la capacitancia y de la inductancia. Este principio se
emplea en los receptores de radio al seleccionar una frecuencia específica
mediante un condensador variable.
88
Un inductor es un elemento pasivo de un circuito eléctrico que, debido al
fenómeno de la autoinducción, almacena energía en forma de campo magnético.
Un inductor está constituido usualmente por una bobina de material conductor,
88
http://es.wikipedia.org/wiki/Inductor
134
típicamente cable de cobre. Existen inductores con núcleo de aire ó con núcleo de
un material ferroso, para incrementar su inductancia.
Valor de la inductancia
El valor de la inductancia viene determinado exclusivamente por las características
de la bobina y por la permeabilidad magnética del espacio donde se encuentra.
Así, para un solenoide, la inductancia, de acuerdo con las ecuaciones de Maxwell,
viene determinada por:
Donde µ es la permeabilidad absoluta del núcleo, N es el número de espiras, A es
el área de la sección transversal del bobinado y l la longitud de las líneas de flujo.
El cálculo de l es bastante complicado a no ser que la bobina sea toroidal y aún
así, resulta difícil si el núcleo presenta distintas permeabilidades en función de la
intensidad que circule por la misma. En este caso, la determinación de l se realiza
a partir de las curvas de imantación.
Energía almacenada
Figura 39: Circuito con inductancia.
La bobina ideal es un elemento pasivo que almacena energía eléctrica en forma
de campo magnético cuando aumenta la intensidad, devolviéndola cuando la
corriente disminuye. Su ecuación de definición es (figura 1):
Matemáticamente se puede demostrar que la energía,
, almacenada por una
bobina con inductancia L que es recorrida por una corriente I, viene dada por:
135
7.1.5 Transistores89
El término transistor es la contracción de transfer resistor, es decir, de resistencia
de transferencia. El Transistor es un dispositivo electrónico semiconductor que se
utiliza como amplificador o conmutador electrónico. Es un componente clave en
toda la electrónica moderna, donde es ampliamente utilizado formando parte de
conmutadores electrónicos, puertas lógicas, memorias de ordenadores y otros
dispositivos. En el caso de circuitos analógicos los transistores son utilizados
como amplificadores, osciladores y generadores de ondas.
Sustituto de la válvula termoiónica de tres electrodos o triodo, el transistor bipolar
fue inventado en los Laboratorios Bell de EEUU en Diciembre de 1947 por John
Bardeen, Walter Houser Brattain, y William Bradford Shockley, los cuales fueron
galardonados con el Premio Nobel de Física en 1956.
Figura 40: Diferentes encapsulados de transistores
Generalidades
Sus inventores, John Bardeen, William Bradford Shockley y Walter Brattain, lo
llamaron así por la propiedad que tiene de cambiar la resistencia al paso de la
corriente eléctrica entre el emisor y el colector.
El transistor bipolar tiene tres partes, como el triodo. Una que emite portadores
(emisor), otra que los recibe o recolecta (colector) y la tercera, que esta
intercalada entre las dos primeras, modula el paso de dichos portadores (base).
Su funcionamiento es análogo al del triodo, por lo que es aconsejable leer lo que
se dice en dicho artículo.
89
http://es.wikipedia.org/wiki/Transistor
136
En los transistores bipolares, una pequeña señal eléctrica aplicada entre la base y
emisor modula la corriente que circula entre emisor y colector. La señal baseemisor puede ser muy pequeña en comparación con el emisor-colector. La
corriente emisor-colector es aproximadamente de la misma forma que la baseemisor pero amplificada en un factor de amplificación "Beta".
El transistor se utiliza, por tanto, como amplificador. Además, como todo
amplificador puede oscilar, puede usarse como oscilador y también como
rectificador y como conmutador on-off.
El transistor también funciona, por tanto, como un interruptor electrónico, siendo
esta propiedad aplicada en la electrónica en el diseño de algunos tipos de
memorias y de otros circuitos como controladores de motores de DC y de pasos.
Tipos de transistor
Existen distintos tipos de transistores, de los cuales la clasificación más aceptada
consiste en dividirlos en transistores bipolares o BJT (bipolar junction transistor) y
transistores de efecto de campo o FET (field effect transistor). La familia de los
transistores de efecto de campo es a su vez bastante amplia, englobando los
JFET, MOSFET, MISFET, etc.
La diferencia básica entre ambos tipos de transistor radica en la forma en que se
controla el flujo de corriente. En los transistores bipolares, que poseen una baja
impedancia de entrada, el control se ejerce inyectando una baja corriente
(corriente de base), mientras que en el caso de los transistores de efecto de
campo, que poseen una alta impedancia, es mediante voltaje (tensión de puerta).
Transistores bipolares (BJT - Bipolar Junction Transistor)
Se puede tener por tanto transistores PNP o NPN. Tecnológicamente se
desarrollaron antes que los de efecto de campo o FET.
PNP
NPN
Figura 41: Símbolos esquemáticos para los BJT de tipo PNP y NPN. B=Base,
C=Colector y E=Emisor
137
Los transistores bipolares se usan generalmente en electrónica analógica.
También en algunas aplicaciones de electrónica digital como la tecnología TTL o
BICMOS.
Los MOSFET tienen en común con los FET su ausencia de cargas en las placas
metálicas así como un solo flujo de campo. Suelen venir integrados en capas de
arrays con polivalencia de 3 a 4Tg. Trabajan, mayormente, a menor rango que los
BICMOS y los PIMOS.
Un transistor de juntura bipolar está formado por dos junturas PN en un solo cristal
semiconductor, separados por una región muy estrecha. De esta forma quedan
formadas tres regiones:
Emisor, que se diferencia de las otras dos por estar fuertemente dopada,
comportándose como un metal.
Base, la intermedia, muy estrecha, que separa el emisor del colector.
Colector, de extensión mucho mayor.
La técnica de fabricación más común es la deposición epitaxial.
En su funcionamiento normal, la juntura base-emisor está polarizada en directa,
mientras que la base-colector en inversa. Los portadores de carga emitidos por el
emisor atraviesan la base, que por ser muy angosta, hay poca recombinación de
portadores, y la mayoría pasa al colector.
Transistores de efecto de campo (FET - Field-Effect Transistor)
Los transistores de efecto de campo o FET más conocidos son los JFET (Junction
Field Effect Transistor), MOSFET (Metal-Oxide-Semiconductor FET) y MISFET
(Metal-Insulator-Semiconductor FET).
P- channel
N- channel
Figura 42:
Símbolos esquemáticos para los JFETs canal-n y canal-p.
G=Puerta(Gate), D=Drenador(Drain) y S=Fuente(Source).
138
Tienen tres terminales, denominadas puerta (gate), drenador (drain) y fuente
(source). La puerta es el terminal equivalente a la base del BJT. El transistor de
efecto de campo se comporta como un interruptor controlado por tensión, donde el
voltaje aplicado a la puerta permite hacer que fluya o no corriente entre drenador y
fuente.
El funcionamiento del transistor de efecto de campo es distinto al del BJT. En los
MOSFET, la puerta no absorbe corriente en absoluto, frente a los BJT, donde la
corriente que atraviesa la base, pese a ser pequeña en comparación con la que
circula por las otras terminales, no siempre puede ser despreciada. Los MOSFET,
además, presentan un comportamiento capacitivo muy acusado que hay que tener
en cuenta para el análisis y diseño de circuitos.
Así como los transistores bipolares se dividen en NPN y PNP, los de efecto de
campo o FET son también de dos tipos: canal n y canal p, dependiendo de si la
aplicación de una tensión positiva en la puerta pone al transistor en estado de
conducción o no conducción, respectivamente. Los transistores de efecto de
campo MOS son usados extensísimamente en electrónica digital, y son el
componente fundamental de los circuitos integrados o chips digitales.
Transistores y electrónica de potencia
Con el desarrollo tecnológico y evolución de la electrónica, la capacidad de los
dispositivos semiconductores para soportar cada vez mayores niveles de tensión y
corriente ha permitido su uso en aplicaciones de potencia. Es así como
actualmente los transistores son empleados en convertidores estáticos de
potencia, principalmente Inversores. Pero su principal uso esta basado en la
amplificación de corriente dentro de un circuito.
7.1.6 Amplificadores90
El amplificador operacional es una amplificador de alga ganancia acoplado
directamente que utiliza realimentación para desarrollar las características.
Figura 43: Símbolo del amplificador operacional
90
GUITIÉRREZ, Humberto, Electrónica Análoga, Fotocopiar Impresores, Bogotá 2002
139
El amplificador operaciones es ampliamente usada en el diseño de circuitos
análogos porque sus características son muy cercanas a las ideales.
Es capaz de amplificar, controlar o generar alguna señal sinusoidal o no sinusoidal
en frecuencias desde varios mega hertz.
Las características del amplificador ideal son:
- Impedancia de entrada infinita.
- Impedancia de salida cero
- Ganancia de voltaje infinita
- Tensión de offset nula
- Tiempo de respuesta nulo
- Variación nula de características con cambio de tensión de entrada en modo
común.
- Variación nula de características con cambio de tensión de alimentación.
- Ancho de banda infinito
- Corrimiento por efecto térmico cero (drift cero)
Estructura interna
Un amplificador operacional está construido internamente por transistores
bipolares como en los operacionales de la serie LM o también se construyen
combinando transistores bipolares y JFET (BI-FET) como en los operacionales LF.
Un OpAmp simplificado se puede construir con cuatro bloques básicos como
muestra la figura 44.
Figura 44: Estructura interna de un amplificador operacional
El primer bloque corresponde a un amplificador diferencial de alto CMRR por lo
que debe contener una fuente de corriente; la salida es balanceada y acopla con
el segundo bloque que es otro amplificador diferencial de bajo CMRR y salida
desbalanceada. Lógicamente esta salida contiene un nivel continuo, por lo que se
debe suprimir pasando la señal por un restaurador de nivel y que corresponde al
tercer bloque de la figura 44. Por último, la señal posa por el amplificador de salida
y que es el encargado de suministrar la corriente requerida por la carga.
140
7.2
INTEGRADOS
Un circuito integrado (CI) es una pastilla o chip en la que se encuentran todos o
casi todos los componentes necesarios para que un ordenador pueda realizar
alguna función. Estos componentes son transistores en su mayoría, aunque
también contienen resistencias, diodos, condensadores, etc.
El primer CI fue desarrollado en 1958 por el ingeniero Jack Kilby justo meses
después de haber sido contratado por la firma Texas Instruments. Se trataba de
un dispositivo que integraba seis transistores en una misma base semiconductora.
En el año 2000 Kilby fue galardonado con el Premio Nobel de Física por la
contribución de su invento al desarrollo de la tecnología de la información.
Atendiendo al nivel de integración - número de componentes - los circuitos
integrados se clasifican en:
•
•
•
•
•
SSI (Small Scale Integration) pequeño nivel: inferior a 12
MSI (Medium Scale Integration) medio: 12 a 99
LSI (Large Scale Integration) grande : 100 a 9999
VLSI (Very Large Scale Integration) muy grande : 10.000 a 99.999
ULSI (Ultra Large Scale Integration) ultra grande : igual o superior a 100000
En cuanto a las funciones integradas, los circuitos se clasifican en dos grandes
grupos:
•
Circuitos integrados analógicos.
Pueden constar desde simples transistores encapsulados juntos, sin unión
entre ellos, hasta dispositivos completos como amplificadores, osciladores o
incluso receptores de radio completos.
•
Circuitos integrados digitales.
Pueden ser desde básicas puertas lógicas (Y, O, NO) hasta los más complicados
microprocesadores.
Los circuitos integrados fueron posibles gracias a descubrimientos experimentales
que demostraron que los semiconductores pueden realizar las funciones de los
tubos de vacío. La integración de grandes cantidades de diminutos transistores en
pequeños chips fue un enorme avance sobre la ensamblaje manual de los tubos
de vacío (válvulas) y circuitos utilizando componentes discretos. La capacidad de
producción masiva de circuitos integrados, confiabilidad y facilidad de agregarles
complejidad, impuso la estandarización de los CIs en lugar de diseños utilizando
141
transistores que pronto dejaron obsoletas a las válvulas o tubos de vacío. Existen
dos ventajas principales de los CIs sobre los circuitos convencionales: coste y
rendimiento. El bajo coste es debido a que los chips, con todos sus componentes,
son impresos como una sola pieza por fotolitografía y no construidos por
transistores de a uno por vez.
Avances en los circuitos integrados
Entre los circuitos integrados más avanzados se encuentran los
microprocesadores, que controlan todo desde computadoras hasta teléfonos
celulares y hornos de microondas. Los chips de memorias digitales son otra familia
de circuitos integrados que son de importancia crucial para la moderna sociedad
de la información. Mientras que el costo de diseñar y desarrollar un circuito
integrado complejo es bastante alto, cuando se reparte entre millones de unidades
de producción el costo individual de los CIs por lo general se reduce al mínimo. La
eficiencia de los CIs es alta debido a que el pequeño tamaño de los chips permite
cortas conexiones que posibilitan la utilización de lógica de bajo consumo (como
es el caso de CMOS) en altas velocidades de conmutación.
Con el transcurso de los años, los CIs están constantemente migrando a tamaños
más pequeños con mejores características, permitiendo que mayor cantidad de
circuitos sean empaquetados en cada chip (véase la ley de Moore). Al mismo
tiempo que el tamaño se comprime, prácticamente todo se mejora (el costo y el
consumo de energía disminuyen y la velocidad aumenta). Aunque estas ganancias
son aparentemente para el usuario final, existe una feroz competencia entre los
fabricantes para utilizar geometrías cada vez más delgadas. Este proceso, y el
esperado proceso en los próximos años, está muy bien descrito por la
International Technology Roadmap for Semiconductors, o ITRS.
Popularidad de los CIs
Solo ha trascurrido medio siglo después de que se inicio su desarrollo y los
circuitos integrados se han vuelto omnipresentes. Computadoras, teléfonos
móviles y otras aplicaciones digitales son ahora partes inextricables de las
sociedades modernas. La informática, las comunicaciones, la manufactura y los
sistemas de transporte, incluyendo Internet, todos dependen de las existencia de
los circuitos integrados. De hecho, muchos estudiosos piensan que la revolución
digital causada por los circuitos integrados es uno de los sucesos más
significativos de la historia de la humanidad.
7.2.1 Compuertas
Una puerta lógica, o compuerta lógica, es un dispositivo electrónico que es la
expresión física de un operador booleano en la lógica de conmutación. Cada
142
puerta lógica consiste en una red de dispositivos interruptores que cumple las
condiciones booleanas para el operador particular. Son esencialmente circuitos de
conmutación integrados en un chip.
Claude Elwood Shannon experimentaba con relés o interruptores
electromagnéticos para conseguir las condiciones de cada compuerta lógica, por
ejemplo, para la función booleana Y (AND) colocaba interruptores en circuito serie,
ya que con uno solo de éstos que tuviera la condición "abierto", la salida de la
compuerta Y sería = 0, mientras que para la implementación de una compuerta O
(OR), la conexión de los interruptores tiene una configuración en circuito paralelo.
La tecnología microelectrónica actual permite la elevada integración de
transistores actuando como conmutadores en redes lógicas dentro de un pequeño
circuito integrado. El chip de la CPU es una de las máximas expresiones de este
avance tecnológico.
Puerta SI (IF)
Símbolo de la función lógica SI a) Contactos, b) Normalizado y c) No normalizado
La puerta lógica SI, realiza la función booleana igualdad. En la práctica se suele
utilizar como amplificador de corriente (buffer en inglés).
La ecuación característica que describe el comportamiento de la puerta SI es:
Tabla de verdad puerta SI
Entrada A
Salida A
0
0
1
1
143
Puerta Y (AND)
Símbolo de la función lógica Y a) Contactos, b) Normalizado y c) No normalizado
La puerta lógica Y, más conocida por su nombre en inglés AND, realiza la función
booleana de producto lógico. Su símbolo es un punto (·), aunque se suele omitir.
Así, el producto lógico de las variables A y B se indica como AB, y se lee A y B o
simplemente A por B.
La ecuación característica que describe el comportamiento de la puerta AND es:
Tabla de verdad puerta AND
Entrada A Entrada B Salida AB
0
0
0
0
1
0
1
0
0
1
1
1
Su definición se puede dar, como una compuerta que entrega un 1 lógico sólo si
todas las entradas están a nivel alto 1.
Puerta O (OR)
La puerta lógica O, más conocida por su nombre en inglés OR, realiza la
operación de suma lógica. Su símbolo es el sus símbolos en electrónica.
La ecuación característica que describe el comportamiento de la puerta OR es:
Tabla de verdad puerta OR
144
Entrada A Entrada B Salida A + B
0
0
0
0
1
1
1
0
1
1
1
1
Podemos definir la puerta O como aquella que proporciona a su salida un 1 lógico
si al menos una de sus entradas está a 1.
Puerta OR-exclusiva (XOR)
Símbolo de la función lógica O-exclusiva. a) Contactos, b) Normalizado y c) No
normalizado
La puerta lógica O-exclusiva, más conocida por su nombre en inglés XOR, realiza
la función booleana A'B+AB'. Su símbolo es el más (+) inscrito en un círculo. En la
figura de la derecha pueden observarse sus símbolos en electrónica.
La ecuación característica que describe el comportamiento de la puerta XOR es:
Tabla de verdad puerta XOR
Entrada A Entrada B Salida A
0
0
0
0
1
1
1
0
1
1
1
0
B
145
Se puede definir esta puerta como aquella que da por resultado uno, cuando los
unos en las entradas son impares. ej: 1 y 0, 0 y 1 (en una compuerta de dos
entradas).
Lógica negada
Puerta NO (NOT)
Símbolo de la función lógica NO a) Contactos, b) Normalizado y c) No normalizado
La puerta lógica NO (NOT en inglés) realiza la función booleana de inversión o
negación de una variable lógica.
La ecuación característica que describe el comportamiento de la puerta NOT es:
Tabla de verdad puerta NOT
Entrada A
Salida
0
1
1
0
Se puede definir como una puerta que proporciona el estado inverso del que esté
en su entrada.
Puerta NO-Y (NAND)
146
Símbolo de la función lógica NO-Y. a) Contactos, b) Normalizado y c) No
normalizado
La puerta lógica NO-Y, más conocida por su nombre en inglés NAND, realiza la
operación de producto lógico negado. En la figura de la derecha pueden
observarse sus símbolos en electrónica.
La ecuación característica que describe el comportamiento de la puerta NAND es:
Tabla de verdad puerta NAND
Entrada A Entrada B Salida
0
0
1
0
1
1
1
0
1
1
1
0
Podemos definir la puerta NO-Y como aquella que proporciona a su salida un 0
lógico únicamente cuando todas sus entradas están a 1.
Puerta NO-O (NOR)
Símbolo de la función lógica NO-O. a) Contactos, b) Normalizado y c) No
normalizado
La puerta lógica NO-O, más conocida por su nombre en inglés NOR, realiza la
operación de suma lógica negada. En la figura de la derecha pueden observarse
sus símbolos en electrónica.
La ecuación característica que describe el comportamiento de la puerta NOR es:
147
Tabla de verdad puerta OR
Entrada A Entrada B Salida
0
0
1
0
1
0
1
0
0
1
1
0
Podemos definir la puerta NO-O como aquella que proporciona a su salida un 1
lógico sólo cuando todas sus entradas están a 0. La puerta lógica NOR constituye
un conjunto completo de operadores.
Puerta equivalencia (XNOR)
Símbolo de la función lógica equivalencia. a) Contactos, b) Normalizado y c) No
normalizado
La puerta lógica equivalencia, más conocida por su nombre en inglés XNOR,
realiza la función booleana AB+A'B'. Su símbolo es un punto (·) inscrito en un
círculo. En la figura de la derecha pueden observarse sus símbolos en electrónica.
La ecuación característica que describe el comportamiento de la puerta XNOR es:
Tabla de verdad puerta XNOR
Entrada A Entrada B Salida
0
0
1
0
1
0
1
0
0
1
1
1
148
Se puede definir esta puerta comos aquella que proporciona un 1 lógico, sólo si
las dos entradas son iguales, esto es, 0 y 0 ó 1 y 1.
Simbología
Actualmente se usan dos tipos de símbolos, ambos definidos por el IEEE en la
norma ANSI.
El símbolo tradicional es el más usado al ser el más simple para dibujarlo a mano,
a la vez que es más visual.
El símbolo rectangular está basado en la IEC 60617-12. Esta simbología ha sido
ampliamente aceptada por grandes estándares.
Type
Símbolo tradicional
Símbolo rectangular
AND
OR
NOT
En electrónica una puerta NOT se suele llamar inversor. El círculo en el símbolo
se llama 'burbuja' y se usa en diagramas de circuitos para indicar una entrada o
salida inversora.
NAND
NOR
En la práctica, la puerta lógica más barata y más usada suele ser la puerta NAND.
Charles Peirce mostró que las puertas NAND pueden usarse solas (de la misma
forma que las puertas NOR) para conseguir los mismos resultados que con otras
puertas lógicas.
149
Puede que alguna vez se encuentre una puerta OR con una burbuja en cada una
de sus entradas, ya que por las Leyes de De Morgan se puede demostrar que
equivale a una puerta NAND, de la misma forma que una puerta NOR equivale a
una puerta AND con burbujas en sus entradas. Son símbolos equivalentes.
Existen además dos puertas lógicas, la llamada OR-Exclusiva o XOR y su inversa
NOR-Exclusiva o XNOR. Consisten en detectar cuándo las entradas son iguales,
para dar 0 en el caso de XOR ó 1 en el caso de XNOR.
XOR
XNOR
Distribución y fotografía de una compuerta AND, 7400
El chip 7400 contiene cuatro puertas NAND. Los dos conectores adicionales son:
conexión a fuente (+5 V) y masa o tierra (0 V)
Puertas lógicas triestado
Las puertas lógicas triestado (de tres estados), son un tipo de puertas es las
cuales la salida tiene, además de los niveles alto y bajo, un tercer estado de alta
impedancia normalmente representado por Z. El estado Z se implementa
únicamente para facilitar el diseño de los circuitos, y no contiene ninguna
150
información. Esta característica se utiliza en circuitos en los cuales las salidas de
varias puertas lógicas se conectan a una única entrada, (evitando así un
cortocircuito). Una entrada de control activa una única salida a la vez,
dependiendo de la operación lógica requerida por el diseñador, mientras que las
otras salidas se mantienen en el estado Z de alta impedancia (también
denominado 'deshabilitado').
7.2.2
Microelectrónica
La microelectrónica es la aplicación de la ciencia electrónica a componentes y
circuitos de dimensiones muy pequeñas, microscópicas y hasta de nivel molecular
para producir dispositivos y equipos electrónicos de dimensiones reducidas pero
altamente funcionales. El teléfono celular, el microprocesador de la CPU y la
computadora tipo Palm son claros ejemplos de los alcances actuales de la
Tecnología Microelectrónica.
Fabricar un circuito integrado es un proceso complejo y
en el que intervienen numerosas etapas. Cada
fabricante tiene sus propias técnicas que guardan
como secreto de empresa, aunque las técnicas son
parecidas.
Los dispositivos integrados pueden ser tanto
analógicos como digitales, aunque todos tienen como
base un material semiconductor, normalmente el silicio.
7.2.3
Microprocesadores
Un microprocesador es un conjunto de circuitos electrónicos altamente integrado
para cálculo y control computacional. El microprocesador es utilizado como Unidad
Central de Proceso en un sistema microordenador y en otros dispositivos
electrónicos complejos como cámaras fotográficas e impresoras, y como añadido
en pequeños aparatos extraíbles de otros aparatos más complejos como por
ejemplo equipos musicales de automóviles.
Parámetros significativos de un procesador son su ancho de bus (medido en bits),
la frecuencia de reloj a la que trabajan (medida en hercios), y el tamaño de
memoria caché (medido en kilobytes). Generalmente, el microprocesador tiene
circuitos de almacenamiento (o memoria caché) y puertos de entrada/salida en el
mismo circuito integrado (o chip). Vale acotar que existen dos tipos de memoria
caché cuyo funcionamiento es análogo: (a) L1 o interna (situada dentro del propio
procesador y por tanto de acceso aún más rápido y aún más cara). La caché de
primer nivel contiene muy pocos kilobytes (unos 32 ó 64 Kb); y; (b) L2 o externa
151
(situada entre el procesador y la RAM). Los tamaños típicos de la memoria caché
L2 oscilan en la actualidad entre 256 kb y 2 Mb.
El zocket es una matriz de pequeños agujeros (zócalo) existente en una placa
base donde encajan, sin dificultad, los pines de un microprocesador; dicha matriz
permite la conexión entre el microprocesador y dicha placa base. En los primeros
ordenadores personales, el microprocesador venía directamente soldado a la
placa base, pero la aparición de una amplia gama de microprocesadores llevó a la
creación del socket.
En general, cada familia de microprocesador requiere un tipo distinto de zócalo, ya
que existen diferencias en el número de pines, su disposición geométrica y la
interconexión requerida con los componentes de la placa base. Por tanto, no es
posible conectar un microprocesador a una placa base con un zócalo no diseñado
para él.
Generalmente, el microprocesador tiene puertos de entrada/salida en el mismo
circuito integrado (o chip). El chipset es un conjunto de circuitos integrados que se
encarga de realizar las funciones que el microprocesador delega en ellos. El
conjunto de circuitos integrados auxiliares necesarios por un sistema para realizar
una tarea suele ser conocido como chipset, cuya traducción literal del inglés
significa conjunto de circuitos integrados. Se designa circuito integrado auxiliar al
circuito integrado que es periférico a un sistema pero necesario para el
funcionamiento del mismo. La mayoría de los sistemas necesitan más de un
circuito integrado auxiliar; sin embargo, el término chipset se suele emplear en la
actualidad cuando se habla sobre las placas base de los IBM PCs.
En los procesadores habituales el chipset está formado por 2 circuitos auxiliares al
procesador principal:
1.
El puente norte se usa como puente de enlace entre dicho procesador y la
memoria. El NorthBridge controla las funciones de acceso hacia y entre el
microprocesador, la memoria RAM, el puerto gráfico AGP, y las
comunicaciones con el SouthBrigde.
2.
El SouthBridge controla los dispositivos asociados como son la controladora
de discos IDE, puertos USB, Firewire, SATA, RAID, ranuras PCI, ranura AMR,
ranura CNR, puertos infrarrojos, disquetera, LAN y una larga lista de todos los
elementos que podamos imaginar integrados en la placa madre. El puente sur
es el encargado de comunicar el procesador con el resto de los periféricos).
Este término fue usado frecuentemente en los años 70 y 90 para designar los
circuitos integrados encargados de las tareas gráficas de los ordenadores
domésticos de la época: el Commodore Amiga y el Atari ST. Ambos ordenadores
tenían un procesador principal, pero gran cantidad de sus funciones gráficas y de
152
sonido estaban incluidas en coprocesadores separados que funcionaban en
paralelo al procesador principal.
Cierto libro compara al Chipset con la médula espinal: una persona puede tener un
buen cerebro, pero si la médula falla, todo lo de abajo no sirve para nada.
El primer microprocesador comercial, el Intel 4004, fue desarrollado el 15 de
noviembre de 1971. Los diseñadores jefe fueron Ted Hoff y Federico Faggin de
Intel, y Masatoshi Shima de Busicom (más tarde de ZiLOG).
Microprocesadores, incluyendo un Intel 80486 y un Intel 80386
Los microprocesadores modernos están integrados por millones de transistores y
otros componentes empaquetados en una cápsula cuyo tamaño varía según las
necesidades de las aplicaciones a las que van dirigidas, y que van actualmente
desde el tamaño de un grano de lenteja hasta el de casi una galleta. Las partes
lógicas que componen un microprocesador son, entre otras: unidad aritméticológica, registros de almacenamiento, unidad de control, Unidad de ejecución,
memoria caché y buses de datos control y dirección.
Existen una serie de fabricantes de microprocesadores, como IBM, Intel, Zilog,
Motorola, Cyrix, AMD. A lo largo de la historia y desde su desarrollo inicial, los
microprocesadores han mejorado enormemente su capacidad, desde los viejos
Intel 8080, Zilog Z80 o Motorola 6809, hasta los recientes Intel Itanium, Transmeta
Efficeon o Cell. Ahora los nuevos micros pueden tratar instrucciones de hasta 256
bits, habiendo pasado por los de 128, 64, 32, 16, 8 y 4.
Antecedentes históricos
Desde la aparición de los primeros computadores en los años cuarenta del siglo
XX, muchas fueron las evoluciones que tuvieron los procesadores antes de que el
153
microprocesador surgiera por simple disminución del procesador. Entre esas
evoluciones podemos destacar estos hitos:
•
•
•
•
•
•
ENIAC fue un computador con procesador multiciclo de programación
cableada, esto es, la memoria contenía solo los datos y no los programas.
ENIAC fue el primer computador, que funcionaba según una técnica a la
que posteriormente se dio el nombre de monociclo.
EDVAC fue la primera máquina de Von Neumann, esto es, la primera
máquina que contiene datos y programas en la misma memoria. Fue el
primer procesador multiciclo.
El IBM 7030 (apodado Stretch) fue el primer computador con procesador
segmentado. La segmentación siempre ha sido fundamental en
Arquitectura de Computadores desde entonces.
El IBM 360/91 supuso grandes avances en la arquitectura segmentada,
introduciendo la detección dinámica de riesgos de memoria, la anticipación
generalizada y las estaciones de reserva.
El CDC 6600 fue otro importante computador de microprocesador
segmentado, al que se considera el primer supercomputador.
El último gran hito de la Arquitectura de Computadores fue la segmentación
superescalar, propuesta por John Cocke, que consiste en ejecutar muchas
instrucciones a la vez en el mismo microprocesador. Los primeros
procesadores superescalares fueron los IBM Power-1.
Hay que destacar que los grandes avances en la construcción de
microprocesadores se deben más a la Arquitectura de Computadores que a la
miniaturización electrónica. El microprocesador se compone de muchos
componentes. En los primeros procesadores gran parte de los componentes
estaban ociosos el 90% del tiempo. Sin embargo hoy en día los componentes
están repetidos una o más veces en el mismo microprocesador, y los cauces
están hechos de forma que siempre están todos los componentes trabajando. Por
eso los microprocesadores son tan rápidos y tan productivos. Esta productividad
tan desmesurada, junto con el gran número de transistores por microprocesador
(debido en parte al uso de memorias cache) es lo que hace que necesiten los
inmensos sistemas de refrigeración que se usan hoy en día. Inmensos en
comparación con el microprocesador, que habitualmente consiste en una cajita de
2 centímetros de largo y de ancho por 1 milímetro de altura, cuando los
refrigeradores suelen tener volúmenes de al menos 5 centimetros cubicos.
Evolución del microprocesador
•
1971: Intel 4004:
El primer microprocesador comercial fue el Intel 4004, que salió al mercado el 15
de noviembre de 1971.
154
•
•
•
•
•
•
•
•
•
•
•
•
7.3
19XX: Intel 8008
1978: Intel 8086, Motorola MC68000
1979: Intel 8088
1982: Intel 80286, Motorola MC68020
1985: Intel 80386, Motorola MC68020, AMD80386
1989: Intel 80486, Motorola MC68040, AMD80486
1993: Intel Pentium, Motorola MC68060, AMD K5, MIPS R10000
1995: Intel Pentium Pro
1997: Intel Pentium II, AMD K6, PowerPC6 (versiones G3 y G4), MIPS
R120007
1999: Intel Pentium III, AMD K6-2
2000: Intel Pentium 4, Intel Itanium 2, AMD Athlon XP, AMD Duron,
PowerPC G4, MIPS R14000
2005: Intel Pentium D, Intel Extreme Edition con hyper threading, Intel Core
Duo, IMac con Procesador Intel Core Duo, AMD Athlon 64, AMD Athlon X2,
AMD Athlon FX.
SISTEMAS EMBEBIDOS
Un sistema embebido (a veces traducido del inglés como embebido, empotrado o
incrustado) es un sistema informático de uso específico construido dentro de un
dispositivo mayor. Los sistemas integrados se utilizan para usos muy diferentes de
los usos generales para los que se emplea un ordenador personal. En un sistema
integrado la mayoría de los componentes se encuentran incluidos en la placa base
(motherboard) (la tarjeta de vídeo, audio, módem, etc.)
Dos de las diferencias principales son el precio y el consumo. Puesto que los
sistemas integrados se pueden fabricar por decenas de millares o por millones de
unidades, una de las principales preocupaciones es reducir los costos. Los
sistemas integrados suelen usar un procesador relativamente pequeño y una
memoria pequeña para reducir los costes. Se enfrentan, sobre todo, al problema
de que un fallo en un elemento implica la necesidad de reparar la placa íntegra.
Lentitud no significa que vayan a la velocidad del reloj. En general, se suele
simplificar toda la arquitectura del ordenador o computadora para reducir los
costes. Por ejemplo, los sistemas integrados emplean a menudo periféricos
controlados por interfaces síncronos en serie, que son de diez a cientos de veces
más lentos que los periféricos de un ordenador o computadora personal normal.
Los primeros equipos integrados que se desarrollaron fueron elaborados por IBM
en los años 1980.
Los programas de sistemas integrados se enfrentan normalmente a problemas de
tiempo real.
155
Componentes de un Sistema Integrado
En la parte central se encuentra el microprocesador, microcontrolador, DSP, etc.
Es decir la CPU o unidad que aporta inteligencia al sistema. Según el sistema
puede incluir memoria interna o externa, un micro con arquitectura específica
según requisitos.
La comunicación adquiere gran importancia en los sistemas integrados. Lo normal
es que el sistema pueda comunicarse mediante interfaces estándar de cable o
inalámbricas. Así un SE normalmente incorporará puertos de comunicaciones del
tipo RS232, RS485, SPI, I²C, CAN, USB, IP, WiFi, GSM, GPRS, DSRC, etc.
El subsistema de presentación tipo suele ser una pantalla gráfica, táctil, LCD,
alfanumérico, etc.
Denominamos actuadores a los posibles elementos electrónicos que el sistema se
encarga de controlar. Puede ser un motor eléctrico, un conmutador tipo relé etc. El
mas habitual puede ser una salida de señal PWM para control de la velocidad en
motores de corriente continua.
El módulo de E/S analógicas y digitales suele emplearse para digitalizar señales
analógicas procedentes de sensores, activar diodos LED, reconocer el estado
abierto cerrado de un conmutador o pulsador, etc.
El módulo de reloj es el encargado de generar las diferentes señales de reloj a
partir de un único oscilador principal. El tipo de oscilador es importante por varios
aspectos: por la frecuencia necesaria, por la estabilidad necesaria y por el
consumo de corriente requerido. El oscilador con mejores características en
cuanto a estabilidad y coste son los basados en resonador de cristal de cuarzo,
mientras que los que requieren menor consumo son los RC. Mediante sistemas
PLL se obtienen otras frecuencias con la misma estabilidad que el oscilador
patrón.
El módulo de energía (power) se encarga de generar las diferentes tensiones y
corrientes necesarias para alimentar los diferentes circuitos del SE. Usualmente se
trabaja con un rango de posibles tensiones de entrada que mediante conversores
ac/dc o dc/dc se obtienen las diferentes tensiones necesarias para alimentar los
diversos componentes activos del circuito.
Además de los conversores ac/dc y dc/dc, otros módulos típicos, filtros, circuitos
integrados supervisores de alimentación, etc. El consumo de energía puede ser
determinante en el desarrollo de algunos SE que necesariamente se alimentan
con baterías y es imposible su sustitución, con lo que la vida del SE suele ser vida
de las baterías.
156
Microprocesadores y sistemas embebidos
Un microprocesador es una implementación en forma de circuito integrado (IC) de
la Unidad Central de Proceso CPU de un ordenador. Frecuentemente nos
referimos a un microprocesador como simplemente “CPU”, y la parte de un
sistema que contiene al microprocesador se denomina subsistema de CPU. Los
microprocesadores varían en consumo de potencia, complejidad y coste. Los hay
de unos pocos miles de transistores y con coste inferior a 2 euros (en producción
masiva) hasta de más de cinco millones de transistores que cuestan más de 600
euros.
Los subsistemas de entrada/salida y memoria pueden ser combinados con un
subsistema de CPU para formar un ordenador o sistema integrado completo.
Estos subsistemas se interconectan mediante los buses de sistema (formados a
su vez por el bus de control, el bus de direcciones y el bus de datos).
El subsistema de entrada acepta datos del exterior para ser procesados mientras
que el subsistema de salida transfiere los resultados hacia el exterior. Lo más
habitual es que haya varios subsistemas de entrada y varios de salida. A estos
subsistemas se les reconoce habitualmente como periféricos de E/S.
El subsistema de memoria almacena las instrucciones que controlan el
funcionamiento del sistema. Estas instrucciones comprenden el programa que
ejecuta el sistema. La memoria también almacena varios tipos de datos: datos de
entrada que aún no han sido procesados, resultados intermedios del procesado y
resultados finales en espera de salida al exterior.
Es importante darse cuenta de que los subsistemas estructuran a un sistema
según funcionalidades. La subdivisión física de un sistema, en términos de
circuitos integrados o placas de circuito impreso (PCBs) puede y es normalmente
diferente. Un solo circuito integrado (IC ) puede proporcionar múltiples funciones,
tales como memoria y entrada/salida.
Un microcontrolador (MCU) es un IC que incluye una CPU, memoria y circuitos de
E/S. Entre los subsistemas de E/S que incluyen los microcontroladores se
encuentran los temporizadores, los convertidores analógico a digital (ADC) y
digital a analógico (DAC) y los canales de comunicaciones serie. Estos
subsistemas de E/S se suelen optimizar para aplicaciones específicas (por
ejemplo audio, video, procesos industriales, comunicaciones, etc.).
Hay que señalar que las líneas reales de distinción entre microprocesador,
microcontrolador y microcomputador en un solo chip están difusas, y se
denominan en ocasiones de manera indistinta unos y otros.
157
En general, un SE consiste en un sistema con microprocesador cuyo hardware y
software están específicamente diseñados y optimizados para resolver un
problema concreto eficientemente. Normalmente un SE interactúa continuamente
con el entorno para vigilar o controlar algún proceso mediante una serie de
sensores. Su hardware se diseña normalmente a nivel de chips, o de
interconexión de PCBs, buscando la mínima circuitería y el menor tamaño para
una aplicación particular. Otra alternativa consiste en el diseño a nivel de PCBs
consistente en el ensamblado de placas con microprocesadores comerciales que
responden normalmente a un estándar como el PC-104 (placas de tamaño
concreto que se interconectan entre sí “apilándolas” unas sobre otras, cada una de
ellas con una funcionalidad específica dentro del objetivo global que tenga el SE ).
Esta última solución acelera el tiempo de diseño pero no optimiza ni el tamaño del
sistema ni el número de componentes utilizados ni el coste unitario. En general, un
sistema embebido simple contará con un microprocesador, memoria, unos pocos
periféricos de E/S y un programa dedicado a una aplicación concreta almacenado
permanentemente en la memoria. El término embebido o empotrado hace
referencia al hecho de que el microcomputador está encerrado o instalado dentro
de un sistema mayor y su existencia como microcomputador puede no ser
aparente. Un usuario no técnico de un sistema embebido puede no ser consciente
de que está usando un sistema computador. En algunos hogares las personas,
que no tienen por qué ser usuarias de un ordenador personal estándar (PC),
utilizan del orden de diez o más sistemas embebidos cada día.
Los
microcomputadores
embebidos
en
estos
sistemas
controlan
electrodomésticos tales como: televisores, videos, lavadoras, alarmas, teléfonos
inalámbricos, etc. Incluso un PC tiene microcomputadores embebidos en el
monitor, impresora, y periféricos en general, adicionales a la CPU del propio PC.
Un automóvil puede tener hasta un centenar de microprocesadores y
microcontroladores que controlan cosas como la ignición, transmisión, dirección
asistida, frenos antibloqueo (ABS), control de la tracción, etc.
Los sistemas embebidos se caracterizan normalmente por la necesidad de
dispositivos de E/S especiales. Cuando se opta por diseñar el sistema embebido
partiendo de una placa con microcomputador también es necesario comprar o
diseñar placas de E/S adicionales para cumplir con los requisitos de la aplicación
concreta.
Muchos sistemas embebidos son sistemas de tiempo real. Un sistema de tiempo
real debe responder, dentro de un intervalo restringido de tiempo, a eventos
externos mediante la ejecución de la tarea asociada con cada evento. Los
sistemas de tiempo real se pueden caracterizar como blandos o duros. Si un
sistema de tiempo real blando no cumple con sus restricciones de tiempo,
simplemente se degrada el rendimiento del sistema, pero si el sistema es de
tiempo real duro y no cumple con sus restricciones de tiempo, el sistema fallará.
Este fallo puede tener posiblemente consecuencias catastróficas.
158
Un sistema embebido complejo puede utilizar un sistema operativo como apoyo
para la ejecución de sus programas, sobre todo cuando se requiere la ejecución
simultánea de los mismos. Cuando se utiliza un sistema operativo lo más probable
es que se tenga que tratar de un sistema operativo en tiempo real (RTOS), que es
un sistema operativo diseñado y optimizado para manejar fuertes restricciones de
tiempo asociadas con eventos en aplicaciones de tiempo real. En una aplicación
de tiempo real compleja la utilización de un RTOS multitarea puede simplificar el
desarrollo del software.
Hoy en día existen en el mercado fabricantes que integran un microprocesador y
los elementos controladores de los dispositivos fundamentales de entrada y salida
en un mismo chip, pensando en las necesidades de los sistemas embebidos (bajo
coste, pequeño tamaño, entradas y salidas específicas,...). Su capacidad de
proceso suele ser inferior a los procesadores de propósito general pero cumplen
con su cometido ya que los sistemas donde se ubican no requieren tanta potencia.
Los principales fabricantes son ST Microelectronics (familia de chips STPC),
National (familia Geode), Motorola (familia ColdFire) e Intel.
En cuanto a los sistemas operativos necesarios para que un sistema basado en
microprocesador pueda funcionar y ejecutar programas suelen ser específicos
para los sistemas embebidos. Así nos encontramos con sistemas operativos de
bajos requisitos de memoria, posibilidad de ejecución de aplicaciones de tiempo
real, modulares (inclusión sólo de los elementos necesarios del sistema operativo
para el sistema embebido concreto), etc. Los más conocidos en la actualidad son
Windows CE, QNX y VxWorks de WindRiver.
Aplicaciones de un sistema embebido
Los lugares donde se pueden encontrar los sistemas embebidos son numerosos y
de varias naturalezas. A continuación se exponen varios ejemplos para ilustrar las
posibilidades de los mismos:
•
•
En una fábrica, para controlar un proceso de montaje o producción. Una
máquina que se encargue de una determinada tarea hoy en día contiene
numerosos circuitos electrónicos y eléctricos para el control de motores,
hornos, etc. que deben ser gobernados por un procesador, el cual ofrece un
interfaz persona – máquina para ser dirigido por un operario e informarle al
mismo de la marcha del proceso.
Puntos de servicio o venta (POS, Point Of Service). Las cajas donde se paga la
compra en un supermercado son cada vez más completas, integrando teclados
numéricos, lectores de códigos de barras mediante láser, lectores de tarjetas
bancarias de banda magnética o chip, pantalla alfanumérica de cristal líquido,
etc. El sistema embebido en este caso requiere numerosos conectores de
entrada y salida y unas características robustas para la operación continuada.
159
•
•
•
•
•
•
•
•
Puntos de información al ciudadano. En oficinas de turismo, grandes
almacenes, bibliotecas, etc. existen equipos con una pantalla táctil donde se
puede pulsar sobre la misma y elegir la consulta a realizar, obteniendo una
respuesta personalizada en un entorno gráfico amigable.
Decodificadores y set-top boxes para la recepción de televisión. Cada vez
existe un mayor número de operadores de televisión que aprovechando las
tecnologías vía satélite y de red de cable ofrecen un servicio de televisión de
pago diferenciado del convencional. En primer lugar envían la señal en formato
digital MPEG-2 con lo que es necesario un procesado para decodificarla y
mandarla al televisor. Además viaja cifrada para evitar que la reciban en claro
usuarios sin contrato, lo que requiere descifrarla en casa del abonado.
También ofrecen un servicio de televisión interactiva o web-TV que necesita de
un software específico para mostrar páginas web y con ello un sistema basado
en procesador con salida de señal de televisión.
Sistemas radar de aviones. El procesado de la señal recibida o reflejada del
sistema radar embarcado en un avión requiere alta potencia de cálculo además
de ocupar poco espacio, pesar poco y soportar condiciones extremas de
funcionamiento (temperatura, presión atmosférica, vibraciones, etc.).
Equipos de medicina en hospitales y ambulancias UVI – móvil.
Máquinas de revelado automático de fotos.
Cajeros automáticos.
Pasarelas (Gateways) Internet-LAN.
Y un sin fin de posibilidades aún por descubrir o en estado embrionario como
son las neveras inteligentes que controlen su suministro vía Internet, PCs de
bolsillo, etc.
Ventajas de un sistema embebido sobre las soluciones industriales
tradicionales
Los equipos industriales de medida y control tradicionales están basados en un
microprocesador con un sistema operativo propietario o específico para la
aplicación correspondiente. Dicha aplicación se programa en ensamblador para el
microprocesador dado o en lenguaje C, realizando llamadas a las funciones
básicas de ese sistema operativo que en ciertos casos ni siquiera llega a existir.
Con los modernos sistemas PC embebido basados en microprocesadores i486 o
i586 se llega a integrar el mundo del PC compatible con las aplicaciones
industriales. Ello implica numerosas ventajas:
•
Posibilidad de utilización de sistemas operativos potentes que ya realizan
numerosas tareas: comunicaciones por redes de datos, soporte gráfico,
concurrencia con lanzamiento de threads, etc. Estos sistemas operativos
pueden ser los mismos que para PCs compatibles (Linux, Windows, MS-DOS)
con fuertes exigencias en hardware o bien ser una versión reducida de los
mismos con características orientadas a los PCs embebidos.
160
•
•
Al utilizar dichos sistemas operativos se pueden encontrar fácilmente
herramientas de desarrollo software potentes así como numerosos
programadores que las dominan, dada la extensión mundial de las aplicaciones
para PCs compatibles.
Reducción en el precio de los componentes hardware y software debido a la
gran cantidad de PCs en el mundo.
7.3.1 FPGA91
FPGA es el acrónimo de Field-programmable gate array (Matriz de puertas
programable por un usuario en el 'campo' de una aplicación). Se trata de
dispositivos electrónicos digitales programables de muy alta densidad.
Estructura
Internamente una FPGA es una serie de pequeños dispositivos lógicos, que
algunos fabricantes llaman CLB, organizados por filas y columnas.
Entre los CLB hay un gran número de elementos de interconexión, líneas que
pueden unir unos CLB con otros y con otras partes de la FPGA. Puede haber
líneas de distintas velocidades.
También hay pequeños elementos en cada una de las patillas del chip para definir
la forma en que ésta trabajará (entrada, salida, entrada-salida...). Se suelen llamar
IOB.
Aparte de esta estructura, que es la básica, cada fabricante añade sus propias
ideas, por ejemplo hay algunos que tienen varios planos con filas y columnas de
CLB.
Los CLB contienen en su interior elementos hardware programables que permiten
que su funcionalidad sea elevada. También es habitual que contengan dispositivos
de memoria.
Programación
La tarea del programador es definir la función lógica que realizará cada uno de los
CLB, seleccionar el modo de trabajo de cada IOB e interconectarlos todos.
El diseñador cuenta con la ayuda de herramientas de programación. Cada
fabricante suele tener las suyas, aunque usan unos lenguajes de programación
comunes. Estos lenguajes son los HDL o Hadware Description Language
(lenguajes de descripción de hardware):
91
http://es.wikipedia.org/wiki/FPGA
161
•
•
•
VHDL
Verilog
ABEL
Aplicaciones típicas
Las características de las FPGA son su flexibilidad, capacidad de procesado en
paralelo y velocidad. Esto les convierte en dispositivos idóneos para:
Simulación y depuración en el diseño de microprocesadores.
Simulación y depuración en el diseño de ASICs.
Procesamiento de señal digital, por ejemplo vídeo.
Sistemas aeronaúticos y militares.
En Internet hay disponible código fuente de sistemas como microprocesadores,
microcontroladores, filtros, módulos de comunicaciones, memorias, etc. Estos
códigos se llaman cores.
Vendedores
Actel, Altera, Atmel, Cypress, Lattice, QuickLogic, Xilinx
7.3.4 Convertidores A/D92
Una conversión analógica-digital consiste en la transcripción de señales
analógicas en señales digitales, con el propósito de facilitar su procesamiento
(encriptación, compresión, etc.) y hacer la señal resultante (la digital) más inmune
al ruido y otras interferencias a las que son más sensibles las señales analógicas.
Señal analógica versus señal digital
Una señal analógica es aquella que puede tomar una infinidad de valores
(frecuencia y amplitud) dentro de un límite superior e inferior. El término analógico
proviene de análogo. Por ejemplo, si se observa en un osciloscopio, la forma de la
señal eléctrica en que convierte un micrófono el sonido que capta, ésta sería
similar a la onda sonora que la originó.
En cambio, una señal digital es aquella señal cuyos valores (frecuencia y amplitud)
no son continuos sino discretos, lo que significa que la señal necesariamente ha
de tomar unos determinados valores fijos predeterminados. Estos valores fijos se
toman del sistema binario, lo que significa que la señal va a quedar convertida en
92
www.wikipedia.org
162
una combinación de ceros y unos, que ya no se parece en nada a la señal original.
Precisamente, el término digital tiene su origen en esto, en que la señal se
construye a partir de números (dígitos).
¿Por qué digitalizar?
Ventajas de la señal digital
1. La señal digital es más resistente al ruido. La señal digital es menos sensible
que la analógica a las interferencias, etc.
2. Ante la pérdida de cierta cantidad de información, la señal digital puede ser
reconstruida gracias a los sistema de regeneración de señales (usados
también para amplificarla, sin introducir distorsión). También cuenta, con
sistemas de detección y corrección de errores que, por ejemplo, permiten
introducir el valor de una muestra dañada, obteniendo el valor medio de las
muestras adyacentes (interpolación).
3. Facilidad el procesamiento de la señal. Cualquier operación está al alcance de
un cliqueo.
4. La señal digital permite la multigeneración infinita sin pérdidas de calidad. Esta
ventaja sólo es aplicable a los formatos de disco óptico, la cinta magnética
digital, aunque en menor medida que la analógica (que sólo soporta como
mucho 4 o 5 generaciones), también va perdiendo información con la
multigeneración.
Inconvenientes de la señal digital
1. La señal digital requiere mayor ancho de banda para ser transmitida que la
analógica.
2. Se necesita una conversión analógica-digital previa y una decodificación
posterior, en el momento de la recepción.
3. La transmisión de señales digital requiere una sincronización precisa entre los
tiempos del reloj de transmisor, con respecto a los del receptor. Un desfase,
por mínimo que sea, cambia por completo la señal.
Digitalización
La digitalización o conversión analógica-digital (conversión A/D) consiste
básicamente en realizar de forma periódica medidas de la amplitud de la señal y
traducirlas a un lenguaje numérico. La conversión A/D también es conocida por el
acrónimo inglés ADC (analogic to digital conversion).
En esta definición están patentes los cuatro procesos que intervienen en la
conversión analógica-digital:
163
1. Muestreo: El muestreo (en inglés, sampling) consiste en tomar muestras
periódicas de la amplitud de onda. La velocidad con que se toman esta
muestra, es decir, el número de muestras por segundo, es lo que se conoce
como frecuencia de muestreo.
2. Retención (En inglés, Hold): Las muestras tomadas han de ser retenidas
(retención) por un circuito de retención (Hold), el tiempo suficiente para permitir
evaluar su nivel (cuantificación).
3. Cuantificación: En el proceso de cuantificación se mide el nivel de voltaje de
cada una de las muestras. Consiste en asignar un margen de valor de una
señal analizada a un único nivel de salida.
4. Codificación: La codificación consiste en traducir los valores obtenidos durante
la cuantificación al código binario. Hay que tener presente que el código binario
es el más utilizado, pero también existen otros tipos de códigos que también
son utilizados.
Durante el muestreo y la retención, la señal aun es analógica puesto que aún
puede tomar cualquier valor. No obstante, a partir de la cuantificación, cuando la
señal ya toma valores finitos, la señal ya es digital.
Los cuatro procesos tienen lugar en un conversor analógico-digital.
Compresión
La compresión consiste en la reducción de la cantidad de datos a transmitir o
grabar, pues hay que tener en cuenta que la capacidad de almacenamiento de los
soportes es finita, de igual modo, que los equipos de transmisión pueden manejar
sólo una determinada tasa de datos.
Para realizar la compresión de las señales, se usan complejos algoritmos de
compresión (fórmulas matemáticas).
Hay dos tipos de compresión:
1. Compresión sin pérdidas: En esencia se transmite toda la información, pero
eliminando la información repetida, agrupándola para que ocupe menos...etc.
2. Compresión con pérdidas: Se desprecia cierta información considerada
irrelevante. Este tipo de compresión puede producir pérdida de calidad en el
resultado final.
7.4
OPTOELECTRÓNICA93
La optoelectrónica es el nexo de unión entre los sistemas ópticos y los sistemas
electrónicos. Los componentes optoelectrónicos son aquellos cuyo funcionamiento
93
http://www.info-ab.uclm.es/labelec/solar/Componentes/OPTOELECTRONICA.html
164
está relacionado directamente con la luz y cada día son más utilizados en diversas
aplicaciones. En la actualidad es muy fácil observar en cualquier dispositivo
electrónico o eléctrico con un panel lleno de luces indicando cualquier tipo de
información. Por ejemplo, la mayoría de los equipos electrónicos disponen de
pilotos que nos avisa, el estado de funcionamiento del equipo, si se encuentra
encendido, si la batería ya se termino, si presenta algún tipo de error de
funcionamiento o simplemente si esta conectado a la energía eléctrica.
Dispositivos Optoelectrónicos Básicos
A nivel de componentes podemos distinguir tres tipos de dispositivos:
1. Dispositivos emisores: emiten luz al ser activados por energía eléctrica. Son
dispositivos que transforman la energía eléctrica en energía luminosa. A este nivel
corresponden los diodos LED o los LÁSER.
2. Dispositivos detectores: generan una pequeña señal eléctrica al ser
iluminados. Transforma, pues, la energía luminosa en energía eléctrica.
3. Dispositivos fotoconductores: Conducen la radiación luminosa desde un
emisor a un receptor. No se producen transformaciones de energía.
7.4.1 LED Diodo emisor de luz
Un diodo LED, acrónimo inglés de Light Emitting Diode (diodo emisor de luz) es
un dispositivo semiconductor que emite luz monocromática cuando se polariza en
directa y es atravesado por la corriente eléctrica. El color depende del material
semiconductor empleado en la construcción del diodo, pudiendo variar desde el
ultravioleta, pasando por el espectro de luz visible, hasta el infrarrojo, recibiendo
éstos últimos la denominación de diodos IRED (Infra-Red Emitting Diode).
A (p)
C ó K (n)
Figura 59: Representación simbólica del diodo pn
165
Figura 60: LED´S
El dispositivo semiconductor está comúnmente encapsulado en una cubierta de
plástico de mayor resistencia que las de vidrio que usualmente se emplean en las
lámparas incandescentes. Aunque el plástico puede estar coloreado, es sólo por
razones estéticas, ya que ello no influye en el color de la luz emitida.
Para obtener una buena intensidad luminosa debe escogerse bien la corriente que
atraviesa el LED; el voltaje de operación va desde 1,5 hasta 2,2 voltios
aproximadamente, y la gama de intensidades que debe circular por él va desde 10
hasta 20 mA en los diodos de color rojo, y de 20 a 40 mA para los otros LEDs.
El primer diodo LED que emitía en el espectro visible fue desarrollado por el
ingeniero de General Electric Nick Holonyak en 1962.
Tecnología LED/OLED
En corriente directa (DC), todos los diodos emiten una cierta cantidad de radiación
cuando los pares electrón-hueco se recombinan, es decir, cuando los electrones
caen desde la banda de conducción (de mayor energía) a la banda de valencia (de
menor energía). Indudablemente, la frecuencia de la radiación emitida y, por ende,
su color, dependerá de la altura de la banda prohibida (diferencias de energía
entre las bandas de conducción y valencia), es decir, de los materiales empleados.
Los diodos convencionales, de silicio o germanio, emiten radiación infrarroja muy
alejada del espectro visible. Sin embargo, con materiales especiales pueden
conseguirse longitudes de onda visibles.
Los diodos LED e IRED, además tienen geometrías especiales para evitar que la
radiación emitida sea reabsorbida por el material circundante del propio diodo, lo
que sucede en los convencionales.
166
Compuestos empleados en la construcción de diodos LED.
Compuesto
Color
Long.
onda
Arseniuro de galio (GaAs)
Infrarrojo
940nm
Rojo e infrarrojo
890nm
Arseniuro
(AlGaAs)
de
galio
y
aluminio
Arseniuro fosfuro de galio (GaAsP)
Rojo,
naranja
amarillo
y
Fosfuro de galio (GaP)
Verde
555nm
Nitruro de galio (GaN)
Verde
525nm
Seleniuro de zinc (ZnSe)
Azul
Nitruro de galio e indio (InGaN)
Azul
450nm
Carburo de silicio (SiC)
Azul
480nm
Diamante (C)
Ultravioleta
Silicio (Si)
En desarrollo
de
630nm
Los primeros diodos construidos fueron los diodos infrarrojos y de color rojo,
permitiendo el desarrollo tecnológico posterior la construcción de diodos para
longitudes de onda cada vez menores. En particular, los diodos azules fueron
desarrollados a finales de los 90 por Shuji Nakamura, añadiéndose a los rojos y
verdes desarrollados con anterioridad, lo que permitió, por combinación de los
mismos, la obtención de luz blanca. El diodo de seleniuro de zinc puede emitir
también luz blanca si se mezcla la luz azul que emite con la roja y verde creada
167
por fotoluminiscencia. La más reciente innovación en el ámbito de la tecnología
LED son los diodos ultravioletas, que se han empleado con éxito en la producción
de luz blanca al emplearse para iluminar materiales fluorescentes.
Tanto los diodos azules como los ultravioletas son caros respecto de los más
comunes (rojo, verde, amarillo e infrarrojo), siendo por ello menos empleados en
las aplicaciones comerciales.
Los LED comerciales típicos están diseñados para potencias del orden de los 30 a
60 mW. En torno a 1999 se introdujeron en el mercado diodos capaces de trabajar
con potencias de 1 W para uso continuo; estos diodos tienen matrices
semiconductoras de dimensiones mucho mayores para poder soportar tales
potencias e incorporan aletas metálicas para disipar el calor (ver convección)
generado por efecto Joule. En 2002 se comercializaron diodos para potencias de 5
W, con eficiencias en torno a 60 lm/W, es decir, el equivalente a una lámpara
incandescente de 50 W. De continuar esta progresión, en el futuro será posible el
empleo de diodos LED en la iluminación.
El comienzo del siglo XXI ha visto aparecer los diodos OLED (diodos LED
orgánicos), fabricados con materiales polímeros orgánicos semiconductores.
Aunque la eficiencia lograda con estos dispositivos está lejos de la de los diodos
inorgánicos, su fabricación promete ser considerablemente más barata que la de
aquellos, siendo además posible depositar gran cantidad de diodos sobre
cualquier superficie empleando técnicas de pintado para crear pantallas a color.
Aplicaciones
Los diodos infrarrojos (IRED) se emplean desde mediados del siglo XX en mandos
a distancia de televisores, habiéndose generalizado su uso en otros
electrodomésticos como por ejemplo equipos de aire acondicionado, equipos de
música, etc. y en general para aplicaciones de control remoto, así como en
dispositivos detectores.
Los diodos LED se emplean con profusión en todo tipo de indicadores de estado
(encendido/apagado) en dispositivos de señalización (tráfico, de emergencia, etc.)
y en paneles informativos (el mayor del mundo, del NASDAQ, tiene 36,6 metros de
altura y está en Times Square, Manhattan). También se emplean en el alumbrado
de pantallas de cristal líquido de teléfonos móviles, calculadoras, agendas
electrónicas, etc., así como en bicicletas y usos similares. Existen además
impresoras LED.
El uso de lámparas LED en el ámbito de la iluminación (incluyendo la señalización
de tráfico) es previsible que se incremente en el futuro, ya que aunque sus
prestaciones son intermedias entre la lámpara incandescente y la lámpara
168
fluorescente, presenta indudables ventajas, particularmente su larga vida útil, su
menor fragilidad y la menor disipación de energía, además que para el mismo
rendimiento luminoso producen luz de color, mientras que los utilizados hasta
ahora tienen un filtro, lo que reduce notablemente su rendimiento.
Conexión
La diferencia de potencial varía de acuerdo a las especificaciones relacionadas
con el color y la potencia soportada.
En términos generales puede considerarse:
•
•
•
•
•
•
•
•
Rojo = 1,6 V
Rojo alta luminosidad = 1,9v
Amarillo = 1,7 V a 2V
Verde = 2,4 V
Naranja = 2,4 V
Blanco brillante= 3,4 V
Azul = 3,4 V
Azul 430nm= 4,6 V
Luego mediante la ley de Ohm, puede calcularse el valor resistivo adecuado para
la tensión de la fuente que utilicemos.
R = (Vfuente - (Vd1 + Vd2 + ...)) / Intensidad
Es importante tener en cuenta que también pueden conectarse varios en serie,
sumándose las diferencias de potencial en cada uno.
Diodos Láser
LASER es un acrónimo de Light Amplification by Stimulated Emission of Radiation.
Las aplicaciones de estos diodos son muy diversas y cubren desde el corte de
materiales con haces de gran energía hasta la transmisión de datos por fibra
óptica.
Características: ventajas frente a los diodos LED
Los diodos láser son constructivamente diferentes a los diodos LED normales. Las
características de un diodo láser son
La emisión de luz es dirigida en una sola dirección: Un diodo LED emite fotones en
muchas direcciones. Un diodo láser, en cambio, consigue realizar un guiado de la
luz preferencial una sola dirección.
169
(a)
(b)
Figura 61: Corte esquemático de la emisión de luz en diodos LED y láser (a)
Emisión fotónica en diodo LED (b) Emisión fotónica en diodo láser
La emisión de luz láser es monocromática: Los fotones emitidos por un láser
poseen longitudes de onda muy cercanas entre sí. En cambio, en la luz emitida
por diodos LED, existen fotones con mayores dispersiones en cuanto a las
longitudes de onda.
(a)
170
(b)
Figura 62: Intensidad de luz en función de la longitud de onda para diodos LED y
láser (a) Espectro emitido por un LED (b) espectro emitido por un láser
Debido a estas dos propiedades, con el láser se pueden conseguir rayos de luz
monocromática dirigidos en una dirección determinada. Como además también
puede controlarse la potencia emitida, el láser resulta un dispositivo ideal para
aquellas operaciones en las que sea necesario entregar energía con precisión.
Materiales utilizados
Los materiales utilizados para la fabricación de diodos láser son prácticamente los
mismos que en diodos LED. En comunicaciones se utilizan predominantemente
diodos láser que emiten en el infrarrojo. También se utilizan de luz roja.
Ejemplo de aplicación: El lector de discos compactos
Una de las muchas aplicaciones de los diodos láser es la de lectura de
información digital de soportes de datos tipo CD-ROM o la reproducción de discos
compactos musicales. El principio de operación de uno y otro es idéntico.
171
Figura 63: Esquema del funcionamiento del CD-ROM
Un haz láser es guiado mediante lentes hasta la superficie del CD. A efectos
prácticos, se puede suponer dicha superficie formada por zonas reflectantes y
zonas absorbentes de luz. Al incidir el haz láser en una zona reflectante, la luz
será guiada hasta un detector de luz: el sistema ha detectado un uno digital. Si el
haz no es reflejado, al detector no le llega ninguna luz: el sistema ha detectado un
cero digital.
7.4.2 Fotodetectores
Los componentes fotodetectores son aquellos componentes que varían algún
parámetro eléctrico en función de la luz.
Todos los componentes fotodetectores están basados en el mismo principio. Si
construimos un componente con un material semiconductor de manera que la luz
pueda incidir sobre dicho material, la luz generará pares electrón - hueco. Esta
generación se realiza de manera análoga a la generación térmica de portadores.
Existen tres tipos de componentes fotodetecotres:
- Fotorresistencias
- Fotodiodos
- Fototransistores
- Fotorresistencias
172
Una fotorresistencia se compone de un material semiconductor cuya resistencia
varia en función de la iluminación. La fotorresistencia reduce su valor resistivo en
presencia de rayos luminosos. Es por ello por lo que también se le llama
resistencias dependientes de luz (light dependent resistors), fotoconductores o
células fotoconductoras.
Cuando incide la luz en el material fotoconductor se generan pares electrón hueco. Al haber un mayor número de portadores, el valor de la resistencia
disminuye. De este modo, la fotorresistencia iluminada tiene un valor de
resistencia bajo.
Figura 66: Fotogeneración de portadores
Si dejamos de iluminar, los portadores fotogenerados se recombinarán hasta
volver hasta sus valores iniciales. Por lo tanto el número de portadores disminuirá
y el valor de la resistencia será mayor.
Figura 67: Estado de conducción sin fotogeneración
173
Por supuesto, el material de la fotorresistencia responderá a unas longitudes de
onda determinadas. Es decir, la variación de resistencia será máxima para una
longitud de onda determinada. Esta longitud de onda depende del material y el
dopado, y deberá ser suministrada por el proveedor. En general, la variación de
resistencia en función de la longitud de onda presenta curvas como las de la figura
siguiente.
Figura 68: Variación de resistencia en función de la longitud de onda de la
radiación.
El material mas utilizado como sensor es el CdS, aunque también puede utilizarse
Silicio, GaAsP y GaP.
Fotodiodos
Los fotodiodos son diodos de unión PN cuyas características eléctricas dependen
de la cantidad de luz que incide sobre la unión.
En la figura siguiente se muestra su símbolo circuital.
Figura 69: Símbolo circuital del fotodiodo
174
Características
Figura 70: Curvas características de un fotodiodo
El efecto fundamental bajo el cual opera un fotodiodo es la generación de pares
electrón - hueco debido a la energía luminosa. Este hecho es lo que le diferencia
del diodo rectificador de silicio en el que, solamente existe generación térmica de
portadores de carga. La generación luminosa, tiene una mayor incidencia en los
portadores minoritarios, que son los responsables de que el diodo conduzca
ligeramente en inversa.
El comportamiento del fotodiodo en inversa se ve claramente influenciado por la
incidencia de luz. Conviene recordar que el diodo real presenta unas pequeñas
corrientes de fugas de valor IS. Las corrientes de fugas son debidas a los
portadores minoritarios, electrones en la zona P y huecos en la zona N. La
generación de portadores debido a la luz provoca un aumento sustancial de
portadores minoritarios, lo que se traduce en un aumento de la corriente de fuga
en inversa tal y como se ve en la figura.
El comportamiento del fotodiodo en directa apenas se ve alterado por la
generación luminosa de portadores. Esto es debido a que los portadores
provenientes del dopado (portadores mayoritarios) son mucho más numerosos
que los portadores de generación luminosa.
175
Para caracterizar el funcionamiento del fotodiodo se definen los siguientes
parámetros:
Se denomina corriente oscura (dark current), a la corriente en inversa del
fotodiodo cuando no existe luz incidente.
Se define la sensibilidad del fotodiodo al incremento de intensidad al polarizar el
dispositivo en inversa por unidad de intensidad de luz, expresada en luxes o en
mW/cm2.
Esta relación es constante para un amplio intervalo de iluminaciones.
El modelo circuital del fotodiodo en inversa está formado por un generador de
intensidad cuyo valor depende de la cantidad de luz. En directa, el fotodiodo se
comporta como un diodo normal. Si está fabricado en silicio, la tensión que cae en
el dispositivo será aproximadamente 0,7 V.
Los fotodiodos son más rápidos que las fotorresistencias, es decir, tienen un
tiempo de respuesta menor, sin embargo solo pueden conducir en una
polarización directa corrientes relativamente pequeñas.
Geometría
Un fotodiodo presenta una construcción análoga a la de un diodo LED, en el
sentido que necesita una ventana transparente a la luz por la que se introduzcan
los rayos luminosos para incidir en la unión PN. En la Figura 9.15, aparece una
geometría típica. Por supuesto, el encapsulado es transparente a la luz.
Figura 71: Corte transversal de un fotodiodo comercial
Fototransistor
176
Se trata de un transistor bipolar sensible a la luz.
Figura 72: Símbolo del fototransistor
La radiación luminosa se hace incidir sobre la unión colector base cuando éste
opera en la RAN. En esta unión se generan los pares electrón - hueco, que
provocan la corriente eléctrica.
El funcionamiento de un fototransistor viene caracterizado por los siguientes
puntos:
- Un fototransistor opera, generalmente sin terminal de base (Ib=0) aunque en
algunos casos hay fototransistores tienen disponible un terminal de base para
trabajar como un transistor normal.
- La sensibilidad de un fototransistor es superior a la de un fotodiodo, ya que la
pequeña corriente fotogenerada es multiplicada por la ganancia del transistor.
- Las curvas de funcionamiento de un fototransistor son las que aparecen en la
Figura 73 Como se puede apreciar, son curvas análogas a las del transistor BJT,
sustituyendo la intensidad de base por la potencia luminosa por unidad de área
que incide en el fototransistor.
Figura 73: Curvas características de un fototransistor típico
177
El Optoacoplador
Un optoacoplador es un componente formado por la unión de un diodo LED y un
fototransistor acoplados a través de un medio conductor de luz y encapsulados en
una cápsula cerrada y opaca a la luz.
Figura 74: Esquema de un optoacoplador
Cuanta mayor intensidad atraviesa el fotodiodo, mayor será la cantidad de fotones
emitidos y, por tanto, mayor será la corriente que recorra el fototransistor. Se trata
de una manera de transmitir una señal de un circuito eléctrico a otro. Obsérvese
que no existe comunicación eléctrica entre los dos circuitos, es decir existe un
trasiego de información pero no existe una conexión eléctrica: la conexión es
óptica.
Las implementaciones de un optoacoplador son variadas y dependen de la casa
que los fabrique. Una de las más populares se ve en la Figura 75 Se puede
observar como el LED, en la parte superior, emite fotones que, tras atravesar el
vidrio, inciden sobre el fototransistor.
Figura 75: Esquema constructivo de un optoacoplador
7.4.3 Fibra Óptica
178
La fibra óptica es una guía de ondas en forma de filamento, generalmente de
vidrio (en realidad, de polisilicio), aunque también puede ser de materiales
plásticos, capaz de guiar una potencia óptica (lumínica), generalmente introducida
por un láser, o por un LED. Las fibras utilizadas en telecomunicación a largas
distancias son siempre de vidrio, utilizándose las de plástico solo en algunas redes
de ordenadores y otras aplicaciones de corta distancia, debido a que presentan
mayor atenuación que las de cristal.
Cada filamento consta de un núcleo central de plástico o cristal (óxido de silicio y
germanio) con un alto índice de refracción, rodeado de una capa de un material
similar con un índice de refracción ligeramente menor. Cuando la luz llega a una
superficie que limita con un índice de refracción menor, se refleja en gran parte,
cuanto mayor sea la diferencia de índices y mayor el ángulo de incidencia, se
habla entonces de reflexión interna total.
Así, en el interior de una fibra óptica, la luz se va reflejando contra las paredes en
ángulos muy abiertos, de tal forma que prácticamente avanza por su centro. De
este modo, se pueden guiar las señales luminosas sin pérdidas por largas
distancias.
La fibra óptica ha representado una revolución en el mundo de las
telecomunicaciones, por cuanto ha desplazado a los cables de cobre para la
transmisión de grandes cantidades de información, sea en forma de canales
telefónicos, televisión, datos, etc.
Charles Kao en su Tesis Doctoral de 1966 estimó que las máximas pérdidas que
debería tener la fibra óptica para que resultara práctica en enlaces de
comunicaciones eran de 20 dB/km. En 1970 los investigadores Maurer, Keck,
Schultz y Zimar que trabajaban para Corning Glass Works fabricaron la primera
fibra óptica dopando el sílice con titanio. Las pérdidas eran de 17 dB/km.
El primer enlace transoceánico que usó fibras ópticas fue el TAT-8, que comenzó
a operar en 1988. Desde entonces se ha empleado fibra óptica en multitud de
enlaces transoceánicos, entre ciudades y poco a poco se va extendiendo su uso
desde las redes troncales de las operadoras hacia los usuarios finales.
¿Cómo funciona la Fibra Óptica?
En un sistema de transmisión por fibra óptica existe un transmisor que se encarga
de transformar las ondas electromagnéticas en energía óptica o en luminosa, por
ello se le considera el componente activo de este proceso. Una vez que es
transmitida la señal luminosa por las minúsculas fibras, en otro extremo del circuito
se encuentra un tercer componente al que se le denomina detector óptico o
receptor, cuya misión consiste en transformar la señal luminosa en energía
179
electromagnética, similar a la señal original. El sistema básico de transmisión se
compone en este orden, de señal de entrada, amplificador, fuente de luz, corrector
óptico, línea de fibra óptica (primer tramo), empalme, línea de fibra óptica
(segundo tramo), corrector óptico, receptor, amplificador y señal de salida. En
resumen, se puede decir que este proceso de comunicación, la fibra óptica
funciona como medio de transportación de la señal luminosa, generado por el
transmisor de LED’S (diodos emisores de luz) y láser. Los diodos emisores de luz
y los diodos láser son fuentes adecuadas para la transmisión mediante fibra
óptica, debido a que su salida se puede controlar rápidamente por medio de una
corriente de polarización. Además su pequeño tamaño, su luminosidad, longitud
de onda y el bajo voltaje necesario para manejarlos son características atractivas.
Fabricación de la Fibra Óptica
La primera etapa consiste en el ensamblado de un tubo y de una barra de vidrio
cilíndrico montados concéntricamente. Se calienta el todo para asegurar la
homogeneidad de la barra de vidrio.
Una barra de vidrio de una longitud de 1 m y de un diámetro de 10 cm permite
obtener por estiramiento una fibra monomodo de una longitud de alrededor de 150
km.
La barra así obtenida será instalada verticalmente en una torre situada en el
primer piso y calentada por las rampas a gas. El vidrio se va a estirar y "colar" en
dirección de la raíz para ser enrollado sobre una bobina. Se mide el espesor de la
fibra (~10um) para dominar la velocidad del motor del enrollador, a fin de asegurar
un diámetro constante.
Cada bobina de fibra hace el objeto de un control de calidad efectuado al
microscopio.
Después se va a envolver el vidrio con un revestimiento de protección (~230 um) y
ensamblar las fibras para obtener el cable final a una o varias hebras.
¿De qué están hechas las Fibras Ópticas ?
La mayoría de las fibras ópticas se hacen de arena o sílice, materia prima
abundante en comparación con el cobre. Con unos kilogramos de vidrio pueden
fabricarse aproximadamente 43 kilómetros de fibra óptica. Los dos constituyentes
esenciales de las fibras ópticas son el núcleo y el revestimiento. El núcleo es la
parte más interna de la fibra y es la que guía la luz.
Consiste en una o varias hebras delgadas de vidrio o de plástico con diámetro de
50 a 125 micras. El revestimiento es la parte que rodea y protege al núcleo.
180
El conjunto de núcleo y revestimiento está a su vez rodeado por un forro o funda
de plástico u otros materiales que lo resguardan contra la humedad, el
aplastamiento, los roedores, y otros riesgos del entorno.
Componentes de la Fibra Óptica
El Núcleo: En sílice, cuarzo fundido o plástico - en el cual se propagan las ondas
ópticas. Diámetro: 50 o 62,5 um para la fibra multimodo y 9um para la fibra
monomodo.
La Funda Óptica: Generalmente de los mismos materiales que el núcleo pero con
aditivos que confinan las ondas ópticas en el núcleo.
El revestimiento de protección: por lo general esta fabricado en plástico y
asegura la protección mecánica de la fibra.
Figura 76: Núcleo y revestimiento de la fibra óptica.
Tipos de fibra óptica
- Fibra Monomodo:
Potencialmente, esta es la fibra que ofrece la mayor capacidad de transporte de
información. Tiene una banda de paso del orden de los 100 GHz/km. Los mayores
flujos se consiguen con esta fibra, pero también es la más compleja de implantar.
Sólo pueden ser transmitidos los rayos que tienen una trayectoria que sigue el eje
de la fibra, por lo que se ha ganado el nombre de "monomodo" (modo de
propagación, o camino del haz luminoso, único). Son fibras que tienen el diámetro
del núcleo en el mismo orden de magnitud que la longitud de onda de las señales
ópticas que transmiten, es decir, de unos 5 a 8 mm. Si el núcleo está constituido
de un material cuyo índice de refracción es muy diferente al de la cubierta,
entonces se habla de fibras monomodo de índice escalonado. Los elevados flujos
que se pueden alcanzar constituyen la principal ventaja de las fibras monomodo,
ya que sus pequeñas dimensiones implican un manejo delicado y entrañan
dificultades de conexión que aún se dominan mal.
181
Figura 77: Fibra monomodo
- Fibra Multimodo de Índice Gradiante Gradual:
Las fibras multimodo de índice de gradiente gradual tienen una banda de paso que
llega hasta los 500MHz por kilómetro. Su principio se basa en que el índice de
refracción en el interior del núcleo no es único y decrece cuando se desplaza del
núcleo hacia la cubierta. Los rayos luminosos se encuentran enfocados hacia el
eje de la fibra, como se puede ver en el dibujo. Estas fibras permiten reducir la
dispersión entre los diferentes modos de propagación a través del núcleo de la
fibra.
La fibra multimodo de índice de gradiente gradual de tamaño 62,5/125 m (diámetro
del núcleo/diámetro de la cubierta) está normalizado, pero se pueden encontrar
otros tipos de fibras:
Multimodo de índice escalonado 100/140 mm.
Multimodo de índice de gradiente gradual 50/125 mm.
Figura 78: Fibra Multimodo de Índice Gradiante Gradual
- Fibra Multimodo de índice escalonado:
Las fibras multimodo de índice escalonado están fabricadas a base de vidrio, con
una atenuación de 30 dB/km, o plástico, con una atenuación de 100 dB/km.
Tienen una banda de paso que llega hasta los 40 MHz por kilómetro. En estas
fibras, el núcleo está constituido por un material uniforme cuyo índice de refracción
182
es claramente superior al de la cubierta que lo rodea. El paso desde el núcleo
hasta la cubierta conlleva por tanto una variación brutal del índice, de ahí su
nombre de índice escalonado.
Figura 79: Fibra Multimodo de índice escalonado
183
Descargar