introducción a la microelectrónica y procesos de fabricación

Anuncio
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
ESCUELA DE CIENCIAS BÁSICAS, TECNOLOGÍA E INGENIERÍA
CONTENIDO DIDÁCTICO DEL CUSO: 299008 – MICROELECTRÓNICA
INTRODUCCIÓN A LA MICROELECTRÓNICA Y PROCESOS DE
FABRICACIÓN
BREVE HISTÓRICA SOBRE LA MICROELECTRÓNICA EL PASADO DE LA
ELECTRÓNICA
Las primeras observaciones relacionados con los fenómenos eléctricos son
del tiempo de la Grecia Antigua (Tales de Mileto, Demócrito, etc...). Sin
embargo, no es hasta el siglo XIX cuando se desarrollan algunas teorías que
explican satisfactoriamente parte de dichos fenómenos. En 1893, Maxwell
reunió las investigaciones en el campo de la electricidad y magnetismo de
grandes científicos tales como Coulomb, Ampere, Ohm, Gauss, Farad ay, y
publicó las reglas matemáticas que rigen las interacciones electromagnéticas.
Aunque Maxwell no reconoce la naturaleza
corpuscular de la corriente
eléctrica, sus
ecuaciones son
aplicables incluso después del
establecimiento de la naturaleza discreta de la carga. La predicción de la
existencia de ondas electromagnéticas y su posibilidad de propagación en el
espacio constituye muy probablemente la base del posterior desarrollo de las
comunicaciones, y en definitiva, de la Electrónica.
La Electrónica probablemente no se inicia hasta que Lorentz postuló en 1895 la
existencia de cargas discretas denominadas electrones. Thompson halló
experimentalmente su existencia dos años más tarde y Millikan midió con
precisión la carga del electrón ya entrado el siglo XX. Hasta principios de este
siglo, la Electrónica no empezó a tomar cariz tecnológico. En 1904, Fleming
inventó el diodo que denominó válvula el cual consistía en un filamento
caliente, emisor de electrones, situado en el vacío a una corta distancia de una
placa. En función de la tensión positiva o negativa de la placa, se producía
paso de corriente en una dirección. Esta válvula se empleó como detector de
señales inalámbricas y vino a sustituir a los detectores de galena utilizados hasta
ese momento, que eran de difícil construcción y precisaban de continuos ajustes
manuales.
Quizá el acontecimiento más importante en la historia primitiva de la electrónica
tuvo lugar en 1906 cuando De Forest interpuso un tercer electrodo (rejilla) en
una válvula de Fleming creando el tubo tríodo denominado audión. En este
dispositivo, la aplicación de una pequeña tensión a la rejilla produce una alta
variación de la tensión de la placa; por consiguiente, el audión fue el
primer amplificador de la historia. No obstante, se necesitaron varios años
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
ESCUELA DE CIENCIAS BÁSICAS, TECNOLOGÍA E INGENIERÍA
CONTENIDO DIDÁCTICO DEL CUSO: 299008 – MICROELECTRÓNICA
para avanzar en el problema de emisión termoiónica con objeto de conseguir un
elemento electrónico seguro.
El desarrollo de la electrónica en ésta época está ligado al desarrollo de la radio.
Basados en tubos de vacío se construyen diferentes tipos de circuitos con
aplicación en las comunicaciones por radio. Con diodos y tríodos fueron
diseñados los amplificadores en
cascada, amplificadores regenerativos,
osciladores, el receptor heterodino, entre otros. Este desarrollo de la
electrónica permitió fundar la primera emisora de radiodifusión, KDKA,
construida en 1920 por la W estinghouse Electric Corporation; en 1924, ya
había 500 estaciones de radio en Estados Unidos. La evolución del tríodo
dio lugar a técnicas de calentamiento indirecto del cátodo y a la
introducción de los tetrodos, pentodos y las ampollas de vidrio en miniatura. En
1938 se encuentra disponible del primer receptor en FM después que
Armstrong en 1933 desarrolló la modulación en frecuencia. La televisión en
blanco y negro surgió en 1930 y la de color alrededor de la mitad de este siglo.
LA ELECTRÓNICA Y LOS SEMICONDUCTORES
La verdadera revolución tecnológica de la Electrónica surge con la invención de
los dispositivos basados en semiconductores, y más en concreto, con la
invención del transistor. Los primeros trabajos sobre semiconductores fueron
comenzados por Hall en 1879 sobre el efecto que lleva su nombre. Los
primeros rectificadores de unión metal-semiconductor se estudian entre 1920 y
1930, y es en 1938 cuando Shottky y Mott realizan separadamente un estudio
sistemático sobre las propiedades de estos dispositivos, proponiendo la primera
teoría del espacio de carga. En esta época, se realizan muchos estudios
sobre semiconductores y se perfeccionan las técnicas de crecimiento de
cristales. En 1943, se obtiene la primera unión P-N sobre cristal único de silicio.
En 1947, se presionaron dos sondas de hilo de oro próximas entre sí sobre
una superficie de un cristal de germanio. Brattain y Bardeen se dieron cuenta
que era un dispositivo amplificador naciendo así el primer amplificador de
estado sólido (en forma de transistor de contacto). Sin embargo, era un
transistor deficiente, de poca amplitud de banda y mucho ruido, donde
además los parámetros diferían ampliamente de uno a otro dispositivo.
Shockley propuso el transistor de unión para mejorar las características del
transistor de punta de contacto, y completó su teoría de funcionamiento. El
nuevo dispositivo tenía portadores de ambas polaridades operando
simultáneamente: eran dispositivos bipolares. En 1956, Bardeen, Brattain y
Shockley recibieron el premio Nobel de física por sus investigaciones.
El transistor no podía ser eficiente hasta que no se dispusiese de cristales
simples extraordinariamente puros. Bell Laboratories lograron formar cristales
simples de germanio y silicio con impurezas muy por debajo de una parte en
mil millones, y a partir de aquí, fue posible controlar el proceso de dopado de
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
ESCUELA DE CIENCIAS BÁSICAS, TECNOLOGÍA E INGENIERÍA
CONTENIDO DIDÁCTICO DEL CUSO: 299008 – MICROELECTRÓNICA
los semiconductores. Los primeros
transistores
de
crecimiento fueron
construidos en
1950, y un
año después, ya se
fabricaban
comercialmente por RCA, W estinghouse, General Electric y W estern Electric. En
esta época, los componentes de estado sólido desplazaron virtualmente a las
válvulas en casi todas las aplicaciones, tanto militares como comerciales.
La idea inicial de construir un circuito completo de estado sólido en un bloque
semiconductor fue propuesta por Dummer en 1952. No obstante, en 1958 Kilby,
poco después de incorporarse a la Texas Instrument, concibió la idea de un
monolítico, es decir, construir un circuito completo en germanio o silicio. El primer
circuito integrado fue un oscilador por rotación de fase que se construyó
empleando como material base el germanio, y sobre él, se formaban
resistencias, condensadores y transistores, utilizando cables de oro para unir
estos componentes. Simultáneamente, Noyce, de Fairchild Semiconductor, tuvo
también la idea de un circuito monolítico en el que aisló mediante diodos p-n
los
distintos dispositivos, desarrolló la fabricación de
resistencias e
interconectó los diferentes dispositivos mediante metal vaporizado. No
obstante, el primer transistor de difusión moderno fue creado por Hoerni de
Fairchild en 1958 empleando técnicas fotolitográficas y utilizando los procesos de
difusión antes desarrollados por Noyce y Moore. La clave de la fabricación de
circuitos integrados reside en el transistor planar y
la posibilidad de
fabricación en masa. En 1961, Fairchild y Texas Instrument introdujeron
comercialmente los circuitos integrados.
Otro dispositivo que intervino en el avance espectacular de la Electrónica, aunque
su desarrollo fue posterior al del transistor debido a problemas tecnológicos, es
el transistor de efecto de campo. Antes de la invención de este transistor,
numerosos investigadores ya habían estudiado la variación de conductividad de
un sólido debido a la aplicación de un campo eléctrico. El transistor de unión
de efecto de campo fue propuesto por Shockley en 1951, aunque problemas
tecnológicos para lograr una superficie estable retrasaron su realización física.
Estos problemas fueron solucionados al desarrollarse el proceso planar y la
pasivación de la superficie con óxido de silicio (SiO 2). En 1960, Kahng y Atalla,
de Bell Laboratories, anunciaron el primer transistor de efecto de campo de
puerta aislada. En 1962, Hofstein y Heiman emplearon la nueva tecnología
MOS para fabricar un circuito integrado con más de mil elementos activos. El
nuevo dispositivo MOS
presentaba diversas ventajas sobre transistores
bipolares y sentaba la base para el desarrollo de la alta escala de integración.
LA MICROELECTRÓNICA Y EL SIGLO XX
Las técnicas de integración de circuitos se beneficiaron de los avances
tecnológicos. Los procesos de implantación iónica y litografía permitieron
realizar líneas de conexión en la oblea de silicio con anchuras del orden de
micras. Además, el avance en las tecnologías de integración introdujeron los
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
ESCUELA DE CIENCIAS BÁSICAS, TECNOLOGÍA E INGENIERÍA
CONTENIDO DIDÁCTICO DEL CUSO: 299008 – MICROELECTRÓNICA
circuitos PMOS y CMOS, con
unas características de
tiempos de
propagación y potencia consumida cada vez mejores. La eficiencia, velocidad
y producción han mejorado continuamente en los transistores de unión y efecto
de campo, a la vez que el tamaño y el costo se ha reducido considerablemente.
En poco tiempo, se pasó de construir elementos discretos a sistemas integrados
con más de un millón de transistores en una sola pastilla. La evolución ha sido
espectacular: así, en 1951 se fabricaron los primeros transistores discretos, en
1960 se construyeron los primeros circuitos monolíticos con 100 componentes,
en 1966 estos circuitos alcanzaron 1000 componentes, en 1969 se llegó a
10000, y actualmente se están fabricando circuitos integrados con varios millones
de transistores.
Figura 1.1 Microfotografía de un circuito integrado
En un principio, los circuitos desarrollados para aplicaciones de comunicación
utilizando tubos de vacío, fueron construidos con transistores discretos. Sin
embargo, los investigadores de los años 60 se dieron cuenta que estos
mismos circuitos no eran transplantables directamente a circuitos integrados y
que era preciso diseñar estructuras nuevas. Esto potenció el desarrollo de
nuevas estructuras tales como las fuentes de polarización desarrolladas por
Widlar y a la introducción del primer amplificador operacional comercial (µA702).
En 1968, los laboratorios de Fairchild presentan el popular amplificador
operacional compensado internamente µA741. Otros circuitos analógicos de
esta época son los comparadores, reguladores de tensión, los PLL
monolíticos, convertidores analógica-digital, etc...
La revolución microelectrónica introdujo una nueva industria: la computación.
Esta industria surgió por la gran expansión que se produce en el campo de la
electrónica digital. En 1960, Noyce y Norman introdujeron la primera familia
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
ESCUELA DE CIENCIAS BÁSICAS, TECNOLOGÍA E INGENIERÍA
CONTENIDO DIDÁCTICO DEL CUSO: 299008 – MICROELECTRÓNICA
lógica semiconductora, lógica resistencia-transistor (RTL), que sirvió de base para
la construcción de los primeros circuitos integrados digitales. Seguidamente,
en 1961, apareció la familia de acoplo directo (DCTL), y un año más tarde la
lógica diodo transistor (DTL). En 1964, Texas Instrument presenta la lógica
transistor-transistor (TTL), y la serie de circuitos integrados digitales 54/74 que
han permanecido activos hasta hace poco. Motorola, en 1962 introduce la
lógica de emisores acoplados (ECL) de alta velocidad y en 1968 con ésta
misma lógica logra tiempos de retraso del orden del nanosegundo. En
contrapartida, en 1970 se lanza la serie TTL en tecnología Shottky y en 1975
aparece la serie TTL Shottky de baja potencia con tiempos de retraso muy
próximos a la ECL. En 1972, apareció la familia lógica de inyección integrada
(IIL) cuya principal característica es su alta densidad de empaquetamiento.
La electrónica digital tiene su máxima expansión con las familias lógicas
basadas en el transistor MOS, debido a que su proceso de fabricación es más
sencillo, permite mayor escala de integración y los consumos de potencia son
más reducidos. Estas características ha dado lugar que la tecnología MOS
desplace a la bipolar en la mayor parte de las aplicaciones. El proceso de
miniaturización en tecnología MOS se encuentra por debajo de 1 micra
aproximándose rápidamente a su límite físico. Esto ha permitido que se puedan
realizar circuitos integrados que incorporan millones de dispositivos.
En la década de los ochenta se introducen los circuitos digitales BiCMOS que
ofrecen conjuntamente el bajo consumo de la tecnología CMOS y la velocidad
de las familias bipolares a costa de una mayor complejidad y coste del
proceso de fabricación. También se desarrollan circuitos de alta velocidad
basados en el GaAs con retrasos del orden de decenas de picosegundos.
Existen muchas expectativas en el desarrollo de esta tecnología aunque
problemas de fabricación no permiten actualmente alcanzar la escala de
integración que se logra con el silicio.
Paralelamente, se desarrollan teorías matemáticas para análisis y diseño
de sistemas electrónicos. Particularmente, el espectacular desarrollo de las
computadoras digitales se debe en gran parte a los avances conseguidos en
la Teoría de Conmutación, que establece modelos matemáticos para los
circuitos digitales, transformando los problemas de diseño y verificación
en técnicas matemáticas muy algoritmizadas e independientes en gran
medida de los dispositivos físicos. El desarrollo de la Teoría de Conmutación
puede decirse que empieza con los trabajos de Shannon en 1938, en los que
aplica el álgebra de Boole al análisis de circuitos relevadores. El álgebra de
Boole fue desarrollado en 1854 como una concrección matemática de las leyes
de la lógica de predicados estudiada por los filósofos de la época. La
Teoría de Conmutación se extiende principalmente a circuitos combinacionales
hasta que, a mediados de la década de los cincuenta, los trabajos de Huffman
y de Moore desarrollan la teoría de los circuitos secuenciales. El carácter
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
ESCUELA DE CIENCIAS BÁSICAS, TECNOLOGÍA E INGENIERÍA
CONTENIDO DIDÁCTICO DEL CUSO: 299008 –
MICROELECTRÓNICA
algorítmico de las técnicas de diseño las hace especialmente aptas para
su resolución mediante computador, con lo que éste se convierte así
en herramienta básica para el desarrollo de sistemas digitales en general
y de nuevos computadores más potentes y sofisticados en particular.
El más significativo avance de la electrónica digital es la introducción en 1971
del microprocesador, debido a la necesidad de producir un circuito
estándar de propósito general y gran flexibilidad que sirviera para las
calculadoras y fuera apto a otras muchas aplicaciones. En 1971, Intel
introdujo en el mercado el microprocesador de cuatro bits conocido como
el modelo 4004. Era una CPU completa monolítica con 45 instrucciones
en tecnología PMOS con 2300 transistores. El éxito del procesador fue
inmediato y su amplia difusión supuso el comienzo de una auténtica
revolución industrial. Dos años posteriores a la presentación del primer
procesador, Intel desarrolla el microprocesador de 8 bits 8008 con una
velocidad de 50000 instrucciones por segundo. Este continuo desarrollo
de los microprocesadores ha permitido en la actualidad construir
procesadores de 32 bits con altas velocidades de procesado. La
evolución de los microprocesadores es actualmente muy rápida, con
creciente implantación en los procesos de automatización industrial,
robótica, instrumentación inteligente, y en los elementos de sociedad de
consumo, automóviles, electrodomésticos, etc. La introducción de
microprocesadores más potentes ha marcado un rápido desarrollo de
los microcomputadores y computadores personales, y su implantación es
cada vez más importante en el ámbito de automatización de oficinas e
industria, comunicaciones y redes informáticas.
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
ESCUELA DE CIENCIAS BÁSICAS, TECNOLOGÍA E INGENIERÍA
CONTENIDO DIDÁCTICO DEL CUSO: 299008 – MICROELECTRÓNICA
TENDENCIAS FUTURAS
INTRODUCCIÓN7
La informática se desarrolló bajo una divisa implícita: más pequeño, más
rápido, más barato (smaller, faster, cheaper 8). Estas tres palabras al mismo
tiempo describían el acontecer y expresaban el deseo de la industria. Eran
similares a la divisa que el barón Pierre de Coubertin había elegido para los
juegos olímpicos modernos, una terna de palabras latinas –que describían la
misma idea– para caracterizarlos: altius, citius, fortius (más alto, más rápido,
más fuerte).
Hoy sabemos que la finalidad última de la revolución informática es la
construcción de lo que se ha llamado la Sociedad de la Información, una nueva
manera de relacionarnos entre nosotros y con la naturaleza, asistidos a cada
paso por las máquinas informáticas para reducir al mínimo los procesamientos
algorítmicos de la información y liberar así la máxima capacidad creadora de la
actividad humana.
Es, por lo tanto, una pregunta central de nuestro tiempo intentar responder
cuándo ocurrirá esta Sociedad de la Información.
SMALLER
En el comienzo de la electrónica lo primero que se advirtió fue que cada vez
los circuitos eran más pequeños. La tríada comenzó en smaller.
La microelectrónica comenzó en 1961 con los circuitos integrados. En 1965
Gordon Moore advertía el crecimiento exponencial de la cantidad de
transistores de los circuitos. En un artículo en la revista Electronics publicaba
la idea primera de lo que hoy conocemos la “ley” de Gordon Moore. En este
entonces era director de Fairchild Semiconductor Corporation, una empresa
que forjaría los primeros comienzos de la microelectrónica 9.
7
http://www.itapebi.com.uy/pdfs/1cni.PDF
Este artículo fue preparado para el “Primer Congreso Nacional de Informática”,
Montevideo, 1997. Fue publicado en 1999 por la Oficina de Apuntes del CECEA como
Perspectivas y tendencias de la Informática en el Uruguay.
8
9
una
Moore relató muchas veces esta historia. Una las últimas versiones se encuentra en
entrevista
en
Business
W eek,
23–jun–97,
p.
66.
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
ESCUELA DE CIENCIAS BÁSICAS, TECNOLOGÍA E INGENIERÍA
CONTENIDO DIDÁCTICO DEL CUSO: 299008 – MICROELECTRÓNICA
Moore tenía tres datos: sabía la fecha del primer transistor plano sobre silicio;
los primeros circuitos integrados, en 1961, tenían solamente 4 transistores y
observaba que en el presente –es decir
1965– habían alcanzado la enorme suma de 200 transistores. De allí pegó un
salto al vacío y adelantó que la densidad de transistores parecía duplicarse
cada año. Gordon Moore sería consecuente con esta idea y se convertiría en
uno de los pioneros del smaller, faster, cheaper: pocos años después fundaría
Intel Corporation y lideraría la revolución de los microprocesadores y las
memorias electrónicas. En 1975, con la experiencia acumulada por Intel,
analizó la tendencia de nuevo y se declaró que el número de transistores se
duplicaba cada dos años. La cifra generalmente aceptada actualmente es
intermedia: cada 18 meses se duplica el número de transistores de los chips.
La Ley de Gordon Moore –y algunas otras leyes relacionadas– establecen que
los diferentes parámetros físicos de los circuitos electrónicos integrados crecen
en forma exponencial en el tiempo. Estas leyes son típicas leyes empíricas
acerca de las cuales no existe mayor fundamentación teórica. Desde el
momento de su formulación hasta el presente han sufridos algunas
modificaciones no substanciales en los valores de sus parámetros, pero su
validez ha permanecido esencialmente no cuestionada.
El número de transistores de un chip depende en forma crítica de las
dimensiones del transistor y de los demás elementos geométricos empleados.
El tamaño del chip no incide demasiado porque no se puede aumentar en
forma importante el tamaño del trozo de silicio empleado. En la jerga técnica
este problema se conoce como “las reglas de diseño”. El mosaico que forma el
chip emplea elementos que tienen un cierto tamaño típico. Este módulo es
conocido como la “regla de diseño” empleada. El Cuadro 1 se presenta
algunas cifras.
Cuadro 1: Evolución de las reglas de diseño de los circuitos integrados.
fecha reglas de diseño
1970
20 micras
1975
10 micras
1978
4,5 micras
1980
2 a 3 micras
1996
0,35 micras
1997
0,25 micras
1999
0,18 micras
ref.
[1]
[1]
[1]
[1]
[5]
[5]
[5]
Vale la pena señalar al pasar, como dato curioso porque no tiene importancia
de ningún tipo, que las dimensiones de las células son del orden de la micra.
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
ESCUELA DE CIENCIAS BÁSICAS, TECNOLOGÍA E INGENIERÍA
CONTENIDO DIDÁCTICO DEL CUSO: 299008 – MICROELECTRÓNICA
Esto quiere decir que los transistores de las computadoras personales de la
década del 80 ya habían alcanzado dimensiones “biológicas”.
FASTER, CHEAPER
Una consecuencia no detectada desde el principio, pero relacionada
íntimamente con los procesos físicos que ocurrían en el transistor, fue que la
miniaturización implicaba un aumento de velocidad del procesamiento. En la
medida que las distancias a recorrer dentro del silicio por los lentos portadores
de carga eran cada vez menores, los transistores podían trabajar cada vez a
mayor velocidad. En el Cuadro 2 se presenta la historia de los procesadores de
Intel y alguna especulación acerca del futuro.
Cuadro 2: Evolución de los chips de Intel en sus diversas características.[5]
chip
lanzamiento precio transistores MIPS
4004
11/71
200
2,3 K
0.06
8008
4/72
300
3,5 K
0.06
8080
4/74
300
6K
0.6
8086
6/78
360
29 K
0.3
8088
6/79
360
29 K
0.3
286
2/82
360
134 K
0.9
386
10/85
299
275 K
5
486
4/89
950
1,2 M
20
Pentium
3/93
878
3,1 M
100
Pentium pro
5/95
974
5,5 M
300
786 ?
1997
1000
8M
500
886 ?
2000
1000
15 M
1.000
1286 ?
2011
?
1G
100.000
Se puede comprobar claramente que faster es una consecuencia de smaller.
Más adelante regresaremos sobre este punto. En cambio cheaper no es
verdadero en forma literal.
Los precios de los procesadores hasta el 486 se mantuvieron esencialmente
constantes. En el momento de su lanzamiento costaron siempre alrededor de
300 dólares. Esta situación se modificó en forma notable con la llegada del
486. Se lanza un nuevo chip a la venta cuando es económicamente viable, por
esta razón su precio es esencialmente constante. Esta situación parece
cambiar a partir de la enorme difusión de la computadora W intel con el
procesador 486. Sin duda existieron cambios en la estrategia comercial y es
posible que la situación de virtual monopolio de Intel sea la responsable del
aumento de precios. Es claro que los analistas de mercado no prevén una
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
ESCUELA DE CIENCIAS BÁSICAS, TECNOLOGÍA E INGENIERÍA
CONTENIDO DIDÁCTICO DEL CUSO: 299008 – MICROELECTRÓNICA
disminución de precios para el futuro.
Intel sostiene que es cada vez más costoso montar una fábrica de
semiconductores, cada nueva generación duplica su costo [4], y es probable
que tenga razón, no obstante lo cual es opinión personal de este autor que la
verdadera razón del aumento de precios y de las enormes ganancias de Intel
en los últimos años se debe a la situación de monopolio10.
Es claro, sin embargo, que existe una disminución de precio en el sentido de
que lo mismo cuesta –exponencialmente– cada vez menos. Nuevamente aquí
la tercera palabra es consecuencia de las otras dos. Más pequeño significa
más rápido, más rápido (a precios esencialmente constantes) significa más
barato.
EL LÍMITE FÍSICO
Todo lo presentado nos lleva de la mano a que la revolución electrónica
depende crucialmente de la capacidad para fabricar transistores cada vez más
pequeños. Pero este proceso tiene un límite: la estructura atómica del silicio.
De seguir las tendencias actuales, tarde o temprano se tropezará con límites
físicos que de tendrán el proceso u obligarán a una nueva y revolucionaria
tecnología. Es interesante analizar cuándo ocurrirán estos fenómenos.
Lewis [3] presenta cifras ajustadas de las diferentes exponenciales
relacionadas con la Ley de Gordon Moore. Tal como fuera originalmente
formulada, la ecuación de la forma:
kB
t
donde k y B son constantes empíricas y t es el tiempo en años. En el Cuadro 3
se presentan algunas constantes empíricas para diversos sectores industriales
de avanzada.
Cuadro 3: Algunas áreas tecnológicas en crecimiento exponencial. [3]
área de actividad
B
Manufactura de aviones 1,1
Ley de Gordon Moore 1,48
Ley de Gordon Moore 1,56
10
comentarios
mejora de características
versión original
mejor ajuste actual
A pesar de la reconocida línea económica liberal de Business Week, nunca ha
sugerido esta interpretación al fenómeno.
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
ESCUELA DE CIENCIAS BÁSICAS, TECNOLOGÍA E INGENIERÍA
CONTENIDO DIDÁCTICO DEL CUSO: 299008 – MICROELECTRÓNICA
Comunicaciones
1,78
Megabits por segundo por
Km.
Resulta claro de estas cifras que la electrónica es una de las ramas que más
ha crecido en la historia de la humanidad si la comparamos, por ejemplo, con
otra área de crecimiento vertiginoso como es la aviación. Sin embargo, las
cifras empíricas muestran –lo que es conocido por demás– que las
comunicaciones crecen todavía más que la electrónica.
En el Cuadro 4 se presentan los coeficientes empíricos actuales para el
crecimiento de la velocidad de procesamiento y del número de transistores de
los chips. Es interesante observar que la velocidad crece más que la cantidad
de transistores, lo cual evidencia las mejoras de las técnicas de diseño de los
procesadores por mayor empleo del paralelismo interno.
Cuadro 4: Mejor ajuste actual al crecimiento de la microelectrónica. [3]
área de actividad
crecimiento de los MIPS
crecimiento del número de
transistores
B
k
1,56 0,002374
1,37
1,492
Si aceptamos que estas ecuaciones empíricas representan la tendencia
histórica de la microelectrónica, ahora será sencillo investigar cuando –
plausiblemente– se llegará a los límites físicos de fabricación de nuevos chips.
Aplicando la Ley de Gordon Moore con las cifras del Cuadro 4 en el 2006 se
llegará a un transistor por átomo de silicio. Es claro que las tendencias
actuales predicen entonces una corta vida a la actual frenética revolución de la
microlectrónica. Este resultado sorprendente contrasto con otra predicción
alentadora. Si suponemos que el chip último que se puede fabricar en silicio es
capaz de realizar una operación, a la velocidad de la luz (el límite físico) entre
dos átomos del cristal, esto conduce a 3x1011 MIPS y este límite se
alcanzaría, según la ecuación empírica, más allá del 2020. Esto significa que el
chip último se encuentra, posiblemente, a menos de una década del presente.
Es interesante observar que el problema no se soluciona cambiando el silicio
por otro material: las propiedades de los cristales son muy parecidas entre sí,
otro semiconductor no cambiará nada esencial en estos límites físicos.
Muchos autores ya han advertido de este problema de los límites físicos de los
transistores. Keys [2] sostiene que al acercarse las reglas de diseño a 100
Ångstroms (0,01 micras) empiezan los efectos cuánticos. El límite de
laboratorio posiblemente esté en 30 Ångstroms (0,003 micras) y se llegará a
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
ESCUELA DE CIENCIAS BÁSICAS, TECNOLOGÍA E INGENIERÍA
CONTENIDO DIDÁCTICO DEL CUSO: 299008 – MICROELECTRÓNICA
estos límites hacia el 2003. Otros autores sostienen que el proceso será más
lento y que recién en el 2010 se llegará a 0,1 micras 11. Su propuesta de nueva
tecnología consiste en reemplazar los transistores por “islotes atómicos” de 20
nanometros de largo (0,02 micras) que contienen unos 60 átomos de silicio de
largo, porque todavía no se manifiestan en forma “molesta” las propiedades
cuánticas. Algunos van más lejos, en la Universidad de Minnesota anunciaron
recientemente la posibilidad de almacenar un único electrón por vez [7] y esto
permitiría llevar muy lejos el límite físico de aplicación de la ley de Gordon
Moore.
Cualquiera sea la posición adoptada, parece existir acuerdo en los comienzos
del siglo XXI algo muy trascendente ocurrirá con la microelectrónica y no es
claro que se puede continuar al ritmo en que se venía. Al detenerse el smaller
es de esperar consecuencias importantes para el cheaper y el faster.
La respuesta clásica al agotarse las posibilidades de chips más densos es
emplear, en forma masiva, el paralelismo. Este problema fue estudiado desde
varias décadas atrás, en particular por Gene Amdahl, el diseñado de la IBM
/360. Por acumulación de procesadores pueden crearse máquinas más
potentes a partir un chip dado, pero este mecanismo tiene algunas sorpresas:
• El límite del paralelismo de máquinas se encuentra en la velocidad de
comunicación de los buses internos de los chips. Los MIPS se
encuentran limitados por los límites físicos de la comunicación y éstos,
por la velocidad de la luz.
• A los chips les está ocurriendo otro fenómeno: la complejidad de la
interconexión. Cada vez más la superficie del chip está destinada a
interconectar transistores [6]. Este fenómeno que se manifiesta a nivel
de chips también será notorio en las placas y por este lado también hay
una limitación importante.
• El paralelismo cambia la ecuación de cheaper. Hasta hoy, lo mismo
costaba menos en forma exponencial. Al depender del paralelismo,
desaparece este efecto. Se llega al límite de costo y, en adelante, más
capacidad de procesamiento significará un costo proporcional.
Estas consideraciones muestran que parece estarse llegando al borde del
smaller, faster, cheaper.
11
Gary A. Franzier, de Texas Instruments, advierte que posiblemente se trabaje en esta
fecha con reglas menores y se estará al borde cuántico. Indica que será necesaria una nueva
tecnología.
Business
W
eek,
1–jul–96,
p.
53.
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
ESCUELA DE CIENCIAS BÁSICAS, TECNOLOGÍA E INGENIERÍA
CONTENIDO DIDÁCTICO DEL CUSO: 299008 – MICROELECTRÓNICA
¿Cuándo ocurrirá el futuro?
Cuadro 5: Ventas y computadoras personales estimadas en el mundo.
año
1995
1996
1997
1998
1999
2000
2001
2002
2003
2004
2005
2006
2007
2008
2009
2010
parque
14
18
24
31
41
53
69
90
1173
1525
1983
2578
3351
4357
5664
7363
ventas en
45
59
77
100
130
169
219
285
371
482
626
814
1058
1376
1789
2325
El punto más interesante en el Cuadro 5 es la observación que hacia mediados
de la década siguiente, de mantenerse las tendencias actuales, existirá una
computadora personal cada dos habitantes del planeta. Este es un hecho
sumamente significativo que merece ser analizado con cuidado.
Las cifras del Cuadro 5 suponen que las tendencias actuales, es decir las que
se han mantenido a lo largo de toda la revolución de la microelectrónica, las
que predice la ley de Gordon Moore, se conservarán en los próximos diez
años. Todo el mundo parece estar de acuerdo con esta hipótesis, ningún
analista espera un cambio importante en el futuro próximo. No obstante esto,
en general no se realiza una proyección de este tipo. Examinemos entonces la
proyección en sus diferentes hipótesis de futuro.
La primera hipótesis consiste en suponer que las tendencias históricas se
mantienen. En este caso, la Sociedad de la Información habrá llegado hacia
el 2005. El número de computadoras personales será comparable al de
televisores o teléfonos. Todos los habitantes del planeta tendrá acceso a un
medio informático y todo ocurre tal cual lo predicen los augures de la
modernidad. La propuesta reciente de las Network Computers apunta, sin
duda, en esta dirección. Sin embargo hay algunas dificultades, entre ellas:
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
ESCUELA DE CIENCIAS BÁSICAS, TECNOLOGÍA E INGENIERÍA
CONTENIDO DIDÁCTICO DEL CUSO: 299008 – MICROELECTRÓNICA
•
•
•
Esta situación no parece económicamente viable. Una computadora cada
dos habitantes supone que este nivel de informatización ha llegado a la
India, a China y también a los países paupérrimos del Tercer Mundo.
No parece posible educar a la población planetaria para el uso cotidiano
de las computadoras personales. En la mayoría de los países del planeta
la informática no ha llegado a los niveles escolares pero los habitantes
del 2005 ya están llegando a la escuela.
No parece posible que la economía asimile este volumen de
computadoras. Si bien los procesos de automatización avanzan a toda
velocidad, provocan un desempleo creciente. El convertir a la
computadora personal en el reemplazo universal del papel, de los
medios de trabajo, de los medios de entretenimiento y de los medios de
comunicación (condición que parece indispensable para llegar a los
volúmenes considerados) parece estar lejos de lo que sucede hoy en
día. No parece posible que suceda en una década.
Las consideraciones anteriores sugieren que la tendencia histórica de
evolución de las computadoras no se podrá mantener en el futuro próximo. En
el presente las 200 millones de computadoras personales significan solamente
del orden del 4% de la población mundial. Por cierto que están muy
desigualmente repartidas:
• Usualmente se acepta que Estados Unidos tiene el 40% de las
computadoras del mundo. Esto supone al día de hoy unas 80 millones de
computadoras personales lo cual es una computadora cada 3 habitantes
aproximadamente. Esto significa que ya se ha llegado allí casi a los
niveles de saturación.
• Japón posee un 10% de las computadoras del mundo y estas 20
millones de computadoras con una cada 6 habitantes.
• También se acepta que Europa tiene el 30% de las computadoras del
Mundo. Esto supone hoy en día unas 60 millones de computadoras, tal
vez una cada 10 habitantes. Como se ve, el 20% restante, unas 40
millones de computadoras, están en el resto del planeta y es este sector
el que difícilmente pueda seguir el ritmo de crecimiento del pasado.
Este análisis significa que hay grandes cambios en el futuro inmediato de la
computación. Lo más importante tiene que ver con el cambio de velocidad del
mercado. Si no se puede continuar vendiendo a la enorme velocidad que se
vendía en el pasado, entonces el ritmo de la ley de Gordon Moore debe
cambiar, no ya por acercarse a posibles límites físicos sino por razones
económicas. Está implícito en esta ley que se continúa invirtiendo al ritmo que
corresponde. Pero todo parece indicar que en algún momento se invertirá en el
desarrollo de un chip que no se venderá al ritmo esperado. Este es el momento
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
ESCUELA DE CIENCIAS BÁSICAS, TECNOLOGÍA E INGENIERÍA
CONTENIDO DIDÁCTICO DEL CUSO: 299008 – MICROELECTRÓNICA
en que el cheaper condiciona al smaller.
Tal como se mencionó antes, cada nuevo chip exige una inversión doble del
anterior. Esta inversión debe ser amortizada con la venta de los chips. Si el
ritmo de venta decrece, el tiempo de amortización aumentará y por lo tanto, la
velocidad de cambio disminuirá. Con las cifras que hemos manejado, en unos
pocos años la industria de las computadoras deberá frenarse en su ritmo de
crecimiento y, por lo tanto, cambiar mucho el estilo smaller, faster, cheaper.
Ocurrirá entonces el cierre de la tríada, al fracasar el cheaper, se frenará el
smaller y todo cambiará. Tal vez el aumento de precios de los últimos chips
son una señal de que este proceso ya ha comenzado.
CONCLUSIONES
Si las hipótesis del presente artículo son correctas, asistiremos en la próxima
década a profundos cambios en el mercado de la computación. Posiblemente
algunos gigantes de hoy desaparezcan mañana. Posiblemente el
ritmo
vertiginoso de crecimiento que ha ocurrido en el pasado se detenga y la
industria de la computación adquiera el mismo ritmo de innovación que
cualquiera de las industrias de electrodomésticos. Esto hará que cambie todo:
la necesidad de profesionales, la educación y hasta la manera de diseñar los
productos.
La Sociedad de la Información deberá esperar por la economía por la
imposibilidad de penetrar los mercados de los países pobres al ritmo del
presente. Tal vez esta sea la más importante y feliz de las consecuencias
dentro de este panorama poco alentador que parece avizorase.
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
ESCUELA DE CIENCIAS BÁSICAS, TECNOLOGÍA E INGENIERÍA
CONTENIDO DIDÁCTICO DEL CUSO: 299008 – MICROELECTRÓNICA
LECCIÓN 3: PROCESO DE FABRICACIÓN
El objetivo de la presente lección es presentar el proceso de fabricación de
circuitos integrados CMOS de forma que se comprenda la finalidad de cada
una de las etapas del proceso y, a la vez, se profundice en la comprensión
de la estructura de los transistores MOS y en la manera de conectarlos para
formar circuitos digitales.
La integración CMOS consiste en formar zonas semiconductoras N y P y
la zona de óxido de puerta con polisilicio encima de ella e interconectar los
diversos transistores entre sí y con la fuente de alimentación, todas estas
conexiones mediante líneas de metal (aluminio).
Las regiones citadas no se encuentran en el mismo plano sino en «pisos»
sucesivos: las difusiones penetran en la oblea semiconductora, el óxido de
puerta y el polisilicio se elevan sobre ella y el metal circula por encima de todo
el conjunto. Sendas capas de óxido separan los transistores entre sí y al metal
de todo lo que tiene debajo, salvo en los puntos en que debe establecer
conexión.
Pero, además, las difusiones N requieren un substrato P que es el dopado
propio de la oblea, mientras que las difusiones P precisan de substrato N
que habrá que formarlo previamente sobre la oblea P: los pozos. El substrato
P debe estar polarizado a la tensión más negativa y los pozos N a la más
positiva, en ambos casos con la finalidad de que las uniones difusión-substrato
queden aisladas, en polarización inversa.
Por ello, en la superficie de la oblea, separados por óxido denominado
de campo, tendremos los transistores y los contactos de polarización de los
substratos; al conjunto de todos ellos (transistores y polarizaciones) les
denominamos zonas activas.
FABRICACIÓN DE NMOS Y PMOS
El transistor MOSFET es la estructura actualmente más utilizada en la tecnología
microelectrónica VLSI. Varias razones explican esta preeminencia. Primero es una
estructura autoaislada eléctricamente no siendo necesario fabricar islas de
material aisladas por uniones. Este hecho permite colocar transistores MOS juntos
en el chip con el consiguiente ahorro de espacio y de pasos de proceso. Segundo,
puede ser fabricado en el substrato sin la necesidad de crecer costosas capas
epitaxiales. Sin embargo cada vez se usan más las epitaxias para mejorar las
características de funcionamiento de los dispositivos MOS. Finalmente es un
dispositivo de alta impedancia por lo que su consumo de potencia es bajo. A
continuación describiremos el proceso de fabricación de una estructura MOS
básica: el transistor NMOS. Mencionar que continuamente aparecen
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
ESCUELA DE CIENCIAS BÁSICAS, TECNOLOGÍA E INGENIERÍA
CONTENIDO DIDÁCTICO DEL CUSO: 299008 – MICROELECTRÓNICA
modificaciones de esta estructura para diversas aplicaciones o mejora de
características.
El NMOS (Negative-channel Metal-Oxide Semiconductor) es un tipo de
semiconductor que se carga negativamente de modo que los transistores se
enciendan o apaguen con el movimiento de los electrones. En contraste, los
PMOS (Positive-channel MOS) funcionan moviendo las valencias de electrones. El
NMOS es más veloz que el PMOS, pero también es más costosa su fabricación.
Actualmente es el tipo de tecnología que más se usa en la fabricación de circuitos
integrados.
La figura 1.2 muestra el corte transversal de un MOSFET con canal n. Se observa
la estructura n (fuente/zona roja) p (puerta/zona azul)) n (drenado/zona roja) típica
de un transistor. La aplicación de tensión al electrodo puerta (zona amarilla)
provocará una inversión superficial bajo el óxido de puerta (zona azul bajo puerta)
creando un canal n que pondrá en contacto fuente y drenado (zonas rojas). (Field
Effect Transistor FET).
Figura 1.2. Sección transversal de un transistor MOSFET con canal n
El proceso de fabricación de este dispositivo sería el siguiente.
1) Se parte de un substrato de silicio monocristalino tipo p de una resistividad » 5
W .cm y orientado según una dirección <100>
2) Se crece mediante oxidación térmica una capa de SiO2 de » 500 A de espesor
seguido de una deposición de nitruro de silicio de » 1000 A
3) El área activa del dispositivo es definida mediante fotolitografía creándose un
canal de parada por implantación de boro a través del óxido/nitruro
4) Se elimina el nitruro no protegido por la fotoresina y el wafer es introducido en
un horno de oxidación con el objetivo de crecer el óxido de campo (Field Oxide,
FOX,
»
0.5-1
m
m)
y
realizar
la
distribución
del
boro.
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
ESCUELA DE CIENCIAS BÁSICAS, TECNOLOGÍA E INGENIERÍA
CONTENIDO DIDÁCTICO DEL CUSO: 299008 – MICROELECTRÓNICA
5) La capa óxido/nitruro es eliminada de la zona activa y a continuación se crece el
óxido de puerta de algunos centenares de ángstrom de espesor. En la tecnología
punta actual el espesor de este óxido de silicio es de solo decenas de angstroms.
Para ajustar la tensión umbral, tensión puerta-fuente por encima de la cual se
produce el canal n y el dispositivo conduce, se implanta la dosis de iones
adecuada en el canal
6) Se crece el polisilicio del electrodo puerta, zona amarilla en la figura, el cual es
fuertemente dopado mediante difusión o implantación de fósforo hasta conseguir
una resistencia de hoja de 20-30 W /—. Con el objetivo de reducir la resistencia
del electrodo de puerta hasta » 1 W /• se utilizan los siliciuros ya explicados
anteriormente.
7) Una vez definida mediante fotolitografía el electrodo puerta se crean la fuente y
el drenado, zonas n+ rojas en la figura, mediante implantación de arsénico, » 30
keV » 1016 cm-2, utilizando como máscara el electrodo puerta
8) Deposición de una capa de PSG mediante CVD y posterior tratamiento térmico
para conseguir una topografía suave
9) Proceso fotolitográfico
interconexiones.
de
apertura
de
ventanas
para
contactos
e
10) Deposición de capa de aluminio mediante sputtering y proceso fotolitográfico
para la definición de contactos e interconexiones en la capa metálica. El contacto
al electrodo puerta se realiza fuera de la zona activa del dispositivo para evitar
posibles daños a la capa delgada de óxido de puerta.
En este proceso NMOS hay seis operaciones de crecimiento de película, cuatro
pasos de fotolitografía, tres implantaciones iónicas y cuatro operaciones de ataque
ahorrándose dos operaciones de fotolitografía y un proceso de implantación en
comparación con el proceso bipolar básico.
FABRICACIÓN DE BJT Y FET
El transistor de efecto campo (Field-Effect Transistor o FET, en inglés) es en
realidad una familia de transistores que se basan en el campo eléctrico para
controlar la conductividad de un "canal" en un material semiconductor. Los FET,
como todos los transistores, pueden plantearse como resistencias controladas por
voltaje.
La mayoría de los FET están hechos usando las técnicas de procesado de
semiconductores habituales, empleando la oblea monocristalina semiconductora
como la región activa o canal. La región activa de los TFTs (thin-film transistores, o
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
ESCUELA DE CIENCIAS BÁSICAS, TECNOLOGÍA E INGENIERÍA
CONTENIDO DIDÁCTICO DEL CUSO: 299008 – MICROELECTRÓNICA
transistores de película fina), por otra parte, es una película que se deposita sobre
un sustrato (usualmente vidrio, puesto que la principal aplicación de los TFTs es
como pantallas de cristal líquido o LCDs).
Los transistores de efecto de campo o FET más conocidos son los JFET (Junction
Field Effect Transistor), MOSFET (Metal-Oxide-Semiconductor FET) y MISFET
(Metal-Insulator-Semiconductor FET).
Tienen tres terminales, denominadas puerta (gate), drenador (drain) y fuente
(source). La puerta es el terminal equivalente a la base del BJT. El transistor de
efecto de campo se comporta como un interruptor controlado por tensión, donde el
voltaje aplicado a la puerta permite hacer que fluya o no corriente entre drenador y
fuente.
El funcionamiento del transistor de efecto de campo es distinto al del BJT. En los
MOSFET, la puerta no absorbe corriente en absoluto, frente a los BJT, donde la
corriente que atraviesa la base, pese a ser pequeña en comparación con la que
circula por las otras terminales, no siempre puede ser despreciada. Los MOSFET,
además, presentan un comportamiento capacitivo muy acusado que hay que tener
en cuenta para el análisis y diseño de circuitos.
Así como los transistores bipolares se dividen en NPN y PNP, los de efecto de
campo o FET son también de dos tipos: canal n y canal p, dependiendo de si la
aplicación de una tensión positiva en la puerta pone al transistor en estado de
conducción o no conducción, respectivamente. Los transistores de efecto de
campo MOS son usados extensísimamente en electrónica digital, y son el
componente fundamental de los circuitos integrados o chips digitales.
En esta sección, se considera el FET de metal –óxido semiconductor (MOSFET).
Este FET se construye con la terminal de compuerta aislada del canal con el
dieléctrico dióxido de silicio (SiO2), y ya sea en modo de empobrecimiento o bien
de enriquecimiento. Estos dos tipos se definen y consideran en las siguientes
secciones.
MOSFET de empobrecimiento
El MOSFET de empobrecimiento se construye con un canal físico construido entre
el drenaje y la fuente. Como resultado de ello, existe una iD entre drenaje y fuente
cuando se aplica una tensión, v DS.
El MOSFET de empobrecimiento de canal n se establece en un sustrato p, que es
silicio contaminado de tipo p. Las regiones contaminadas de tipo n de la fuente y el
drenaje forman conexiones de baja resistencia entre los extremos del canal n y los
contactos de aluminio de la fuente (S) y el drenaje (D). Se hace crecer una capa
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD
ESCUELA DE CIENCIAS BÁSICAS, TECNOLOGÍA E INGENIERÍA
CONTENIDO DIDÁCTICO DEL CUSO: 299008 – MICROELECTRÓNICA
de SiO2, que es un aislante, en la parte superior del canal n. Se deposita una capa
de aluminio sobre el aislante de SiO 2 para formar el material de compuerta (G). El
desempeño del MOSFET de empobrecimiento, es similar al del JFET. El JFET se
controla por la unión pn entre la compuerta y el extremo de drenaje del canal. No
existe dicha unión en el MOSFET enriquecimiento, y la capa de SiO 2 actúa como
aislante. Para el MOSFET de canal n, una v GS negativa saca los electrones de la
región del canal, empobreciéndolo. Cuando vGS alcanza VP, el canal se estrangula.
Los valores positivos de vGS aumentan el tamaño del canal, dando por resultado
un aumento en la corriente de drenaje. MOSFET de enriquecimiento
El MOSFET de enriquecimiento difiere del MOSFET de empobrecimiento en que
no tiene la capa delgada de material n sino que requiere de una tensión positiva
entre la compuerta y la fuente para establecer un canal. Este canal se forma por la
acción de una tensión positiva compuerta a fuente, v GS, que atrae electrones de la
región de sustrato ubicada entre el drenaje y la compuerta contaminados de tipo n.
Una vGS positiva provoca que los electrones se acumulen en la superficie inferior
de la capa de oxido. Cuando la tensión alcanza el valor de umbral, V T, han sido
atraídos a esta región los electrones suficientes para que se comporte como canal
n conductor. No habrá una corriente apreciable iD hasta que vGS excede VT.
La corriente de drenaje en saturación se puede calcular de la ecuación:
El transistor de unión bipolar (del inglés Bipolar Junction Transistor, o sus siglas
BJT) es un dispositivo electrónico de estado sólido consistente en dos uniones
PN muy cercanas entre sí, que permite controlar el paso de la corriente a través
de sus terminales. Los transistores bipolares se usan generalmente en electrónica
analógica. También en algunas aplicaciones de electrónica digital como la
tecnología TTL o BICMOS. Un transistor de unión bipolar está formado por dos
Uniones PN en un solo cristal semiconductor, separados por una región muy
estrecha. De esta manera quedan formadas tres regiones:
• Emisor, que se diferencia de las otras dos por estar fuertemente dopada,
comportándose como un metal.
• Base, la intermedia, muy estrecha, que separa el emisor del colector.
• Colector, de extensión mucho mayor.
La técnica de fabricación más común es la deposición epitaxial. En su
funcionamiento normal, la unión base-emisor está polarizada en directa, mientras
que la base-colector en inversa. Los portadores de carga emitidos por el emisor
atraviesan la base, que por ser muy angosta, hay poca recombinación de
Descargar