UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD ESCUELA DE CIENCIAS BÁSICAS, TECNOLOGÍA E INGENIERÍA CONTENIDO DIDÁCTICO DEL CUSO: 299008 – MICROELECTRÓNICA INTRODUCCIÓN A LA MICROELECTRÓNICA Y PROCESOS DE FABRICACIÓN BREVE HISTÓRICA SOBRE LA MICROELECTRÓNICA EL PASADO DE LA ELECTRÓNICA Las primeras observaciones relacionados con los fenómenos eléctricos son del tiempo de la Grecia Antigua (Tales de Mileto, Demócrito, etc...). Sin embargo, no es hasta el siglo XIX cuando se desarrollan algunas teorías que explican satisfactoriamente parte de dichos fenómenos. En 1893, Maxwell reunió las investigaciones en el campo de la electricidad y magnetismo de grandes científicos tales como Coulomb, Ampere, Ohm, Gauss, Farad ay, y publicó las reglas matemáticas que rigen las interacciones electromagnéticas. Aunque Maxwell no reconoce la naturaleza corpuscular de la corriente eléctrica, sus ecuaciones son aplicables incluso después del establecimiento de la naturaleza discreta de la carga. La predicción de la existencia de ondas electromagnéticas y su posibilidad de propagación en el espacio constituye muy probablemente la base del posterior desarrollo de las comunicaciones, y en definitiva, de la Electrónica. La Electrónica probablemente no se inicia hasta que Lorentz postuló en 1895 la existencia de cargas discretas denominadas electrones. Thompson halló experimentalmente su existencia dos años más tarde y Millikan midió con precisión la carga del electrón ya entrado el siglo XX. Hasta principios de este siglo, la Electrónica no empezó a tomar cariz tecnológico. En 1904, Fleming inventó el diodo que denominó válvula el cual consistía en un filamento caliente, emisor de electrones, situado en el vacío a una corta distancia de una placa. En función de la tensión positiva o negativa de la placa, se producía paso de corriente en una dirección. Esta válvula se empleó como detector de señales inalámbricas y vino a sustituir a los detectores de galena utilizados hasta ese momento, que eran de difícil construcción y precisaban de continuos ajustes manuales. Quizá el acontecimiento más importante en la historia primitiva de la electrónica tuvo lugar en 1906 cuando De Forest interpuso un tercer electrodo (rejilla) en una válvula de Fleming creando el tubo tríodo denominado audión. En este dispositivo, la aplicación de una pequeña tensión a la rejilla produce una alta variación de la tensión de la placa; por consiguiente, el audión fue el primer amplificador de la historia. No obstante, se necesitaron varios años UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD ESCUELA DE CIENCIAS BÁSICAS, TECNOLOGÍA E INGENIERÍA CONTENIDO DIDÁCTICO DEL CUSO: 299008 – MICROELECTRÓNICA para avanzar en el problema de emisión termoiónica con objeto de conseguir un elemento electrónico seguro. El desarrollo de la electrónica en ésta época está ligado al desarrollo de la radio. Basados en tubos de vacío se construyen diferentes tipos de circuitos con aplicación en las comunicaciones por radio. Con diodos y tríodos fueron diseñados los amplificadores en cascada, amplificadores regenerativos, osciladores, el receptor heterodino, entre otros. Este desarrollo de la electrónica permitió fundar la primera emisora de radiodifusión, KDKA, construida en 1920 por la W estinghouse Electric Corporation; en 1924, ya había 500 estaciones de radio en Estados Unidos. La evolución del tríodo dio lugar a técnicas de calentamiento indirecto del cátodo y a la introducción de los tetrodos, pentodos y las ampollas de vidrio en miniatura. En 1938 se encuentra disponible del primer receptor en FM después que Armstrong en 1933 desarrolló la modulación en frecuencia. La televisión en blanco y negro surgió en 1930 y la de color alrededor de la mitad de este siglo. LA ELECTRÓNICA Y LOS SEMICONDUCTORES La verdadera revolución tecnológica de la Electrónica surge con la invención de los dispositivos basados en semiconductores, y más en concreto, con la invención del transistor. Los primeros trabajos sobre semiconductores fueron comenzados por Hall en 1879 sobre el efecto que lleva su nombre. Los primeros rectificadores de unión metal-semiconductor se estudian entre 1920 y 1930, y es en 1938 cuando Shottky y Mott realizan separadamente un estudio sistemático sobre las propiedades de estos dispositivos, proponiendo la primera teoría del espacio de carga. En esta época, se realizan muchos estudios sobre semiconductores y se perfeccionan las técnicas de crecimiento de cristales. En 1943, se obtiene la primera unión P-N sobre cristal único de silicio. En 1947, se presionaron dos sondas de hilo de oro próximas entre sí sobre una superficie de un cristal de germanio. Brattain y Bardeen se dieron cuenta que era un dispositivo amplificador naciendo así el primer amplificador de estado sólido (en forma de transistor de contacto). Sin embargo, era un transistor deficiente, de poca amplitud de banda y mucho ruido, donde además los parámetros diferían ampliamente de uno a otro dispositivo. Shockley propuso el transistor de unión para mejorar las características del transistor de punta de contacto, y completó su teoría de funcionamiento. El nuevo dispositivo tenía portadores de ambas polaridades operando simultáneamente: eran dispositivos bipolares. En 1956, Bardeen, Brattain y Shockley recibieron el premio Nobel de física por sus investigaciones. El transistor no podía ser eficiente hasta que no se dispusiese de cristales simples extraordinariamente puros. Bell Laboratories lograron formar cristales simples de germanio y silicio con impurezas muy por debajo de una parte en mil millones, y a partir de aquí, fue posible controlar el proceso de dopado de UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD ESCUELA DE CIENCIAS BÁSICAS, TECNOLOGÍA E INGENIERÍA CONTENIDO DIDÁCTICO DEL CUSO: 299008 – MICROELECTRÓNICA los semiconductores. Los primeros transistores de crecimiento fueron construidos en 1950, y un año después, ya se fabricaban comercialmente por RCA, W estinghouse, General Electric y W estern Electric. En esta época, los componentes de estado sólido desplazaron virtualmente a las válvulas en casi todas las aplicaciones, tanto militares como comerciales. La idea inicial de construir un circuito completo de estado sólido en un bloque semiconductor fue propuesta por Dummer en 1952. No obstante, en 1958 Kilby, poco después de incorporarse a la Texas Instrument, concibió la idea de un monolítico, es decir, construir un circuito completo en germanio o silicio. El primer circuito integrado fue un oscilador por rotación de fase que se construyó empleando como material base el germanio, y sobre él, se formaban resistencias, condensadores y transistores, utilizando cables de oro para unir estos componentes. Simultáneamente, Noyce, de Fairchild Semiconductor, tuvo también la idea de un circuito monolítico en el que aisló mediante diodos p-n los distintos dispositivos, desarrolló la fabricación de resistencias e interconectó los diferentes dispositivos mediante metal vaporizado. No obstante, el primer transistor de difusión moderno fue creado por Hoerni de Fairchild en 1958 empleando técnicas fotolitográficas y utilizando los procesos de difusión antes desarrollados por Noyce y Moore. La clave de la fabricación de circuitos integrados reside en el transistor planar y la posibilidad de fabricación en masa. En 1961, Fairchild y Texas Instrument introdujeron comercialmente los circuitos integrados. Otro dispositivo que intervino en el avance espectacular de la Electrónica, aunque su desarrollo fue posterior al del transistor debido a problemas tecnológicos, es el transistor de efecto de campo. Antes de la invención de este transistor, numerosos investigadores ya habían estudiado la variación de conductividad de un sólido debido a la aplicación de un campo eléctrico. El transistor de unión de efecto de campo fue propuesto por Shockley en 1951, aunque problemas tecnológicos para lograr una superficie estable retrasaron su realización física. Estos problemas fueron solucionados al desarrollarse el proceso planar y la pasivación de la superficie con óxido de silicio (SiO 2). En 1960, Kahng y Atalla, de Bell Laboratories, anunciaron el primer transistor de efecto de campo de puerta aislada. En 1962, Hofstein y Heiman emplearon la nueva tecnología MOS para fabricar un circuito integrado con más de mil elementos activos. El nuevo dispositivo MOS presentaba diversas ventajas sobre transistores bipolares y sentaba la base para el desarrollo de la alta escala de integración. LA MICROELECTRÓNICA Y EL SIGLO XX Las técnicas de integración de circuitos se beneficiaron de los avances tecnológicos. Los procesos de implantación iónica y litografía permitieron realizar líneas de conexión en la oblea de silicio con anchuras del orden de micras. Además, el avance en las tecnologías de integración introdujeron los UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD ESCUELA DE CIENCIAS BÁSICAS, TECNOLOGÍA E INGENIERÍA CONTENIDO DIDÁCTICO DEL CUSO: 299008 – MICROELECTRÓNICA circuitos PMOS y CMOS, con unas características de tiempos de propagación y potencia consumida cada vez mejores. La eficiencia, velocidad y producción han mejorado continuamente en los transistores de unión y efecto de campo, a la vez que el tamaño y el costo se ha reducido considerablemente. En poco tiempo, se pasó de construir elementos discretos a sistemas integrados con más de un millón de transistores en una sola pastilla. La evolución ha sido espectacular: así, en 1951 se fabricaron los primeros transistores discretos, en 1960 se construyeron los primeros circuitos monolíticos con 100 componentes, en 1966 estos circuitos alcanzaron 1000 componentes, en 1969 se llegó a 10000, y actualmente se están fabricando circuitos integrados con varios millones de transistores. Figura 1.1 Microfotografía de un circuito integrado En un principio, los circuitos desarrollados para aplicaciones de comunicación utilizando tubos de vacío, fueron construidos con transistores discretos. Sin embargo, los investigadores de los años 60 se dieron cuenta que estos mismos circuitos no eran transplantables directamente a circuitos integrados y que era preciso diseñar estructuras nuevas. Esto potenció el desarrollo de nuevas estructuras tales como las fuentes de polarización desarrolladas por Widlar y a la introducción del primer amplificador operacional comercial (µA702). En 1968, los laboratorios de Fairchild presentan el popular amplificador operacional compensado internamente µA741. Otros circuitos analógicos de esta época son los comparadores, reguladores de tensión, los PLL monolíticos, convertidores analógica-digital, etc... La revolución microelectrónica introdujo una nueva industria: la computación. Esta industria surgió por la gran expansión que se produce en el campo de la electrónica digital. En 1960, Noyce y Norman introdujeron la primera familia UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD ESCUELA DE CIENCIAS BÁSICAS, TECNOLOGÍA E INGENIERÍA CONTENIDO DIDÁCTICO DEL CUSO: 299008 – MICROELECTRÓNICA lógica semiconductora, lógica resistencia-transistor (RTL), que sirvió de base para la construcción de los primeros circuitos integrados digitales. Seguidamente, en 1961, apareció la familia de acoplo directo (DCTL), y un año más tarde la lógica diodo transistor (DTL). En 1964, Texas Instrument presenta la lógica transistor-transistor (TTL), y la serie de circuitos integrados digitales 54/74 que han permanecido activos hasta hace poco. Motorola, en 1962 introduce la lógica de emisores acoplados (ECL) de alta velocidad y en 1968 con ésta misma lógica logra tiempos de retraso del orden del nanosegundo. En contrapartida, en 1970 se lanza la serie TTL en tecnología Shottky y en 1975 aparece la serie TTL Shottky de baja potencia con tiempos de retraso muy próximos a la ECL. En 1972, apareció la familia lógica de inyección integrada (IIL) cuya principal característica es su alta densidad de empaquetamiento. La electrónica digital tiene su máxima expansión con las familias lógicas basadas en el transistor MOS, debido a que su proceso de fabricación es más sencillo, permite mayor escala de integración y los consumos de potencia son más reducidos. Estas características ha dado lugar que la tecnología MOS desplace a la bipolar en la mayor parte de las aplicaciones. El proceso de miniaturización en tecnología MOS se encuentra por debajo de 1 micra aproximándose rápidamente a su límite físico. Esto ha permitido que se puedan realizar circuitos integrados que incorporan millones de dispositivos. En la década de los ochenta se introducen los circuitos digitales BiCMOS que ofrecen conjuntamente el bajo consumo de la tecnología CMOS y la velocidad de las familias bipolares a costa de una mayor complejidad y coste del proceso de fabricación. También se desarrollan circuitos de alta velocidad basados en el GaAs con retrasos del orden de decenas de picosegundos. Existen muchas expectativas en el desarrollo de esta tecnología aunque problemas de fabricación no permiten actualmente alcanzar la escala de integración que se logra con el silicio. Paralelamente, se desarrollan teorías matemáticas para análisis y diseño de sistemas electrónicos. Particularmente, el espectacular desarrollo de las computadoras digitales se debe en gran parte a los avances conseguidos en la Teoría de Conmutación, que establece modelos matemáticos para los circuitos digitales, transformando los problemas de diseño y verificación en técnicas matemáticas muy algoritmizadas e independientes en gran medida de los dispositivos físicos. El desarrollo de la Teoría de Conmutación puede decirse que empieza con los trabajos de Shannon en 1938, en los que aplica el álgebra de Boole al análisis de circuitos relevadores. El álgebra de Boole fue desarrollado en 1854 como una concrección matemática de las leyes de la lógica de predicados estudiada por los filósofos de la época. La Teoría de Conmutación se extiende principalmente a circuitos combinacionales hasta que, a mediados de la década de los cincuenta, los trabajos de Huffman y de Moore desarrollan la teoría de los circuitos secuenciales. El carácter UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD ESCUELA DE CIENCIAS BÁSICAS, TECNOLOGÍA E INGENIERÍA CONTENIDO DIDÁCTICO DEL CUSO: 299008 – MICROELECTRÓNICA algorítmico de las técnicas de diseño las hace especialmente aptas para su resolución mediante computador, con lo que éste se convierte así en herramienta básica para el desarrollo de sistemas digitales en general y de nuevos computadores más potentes y sofisticados en particular. El más significativo avance de la electrónica digital es la introducción en 1971 del microprocesador, debido a la necesidad de producir un circuito estándar de propósito general y gran flexibilidad que sirviera para las calculadoras y fuera apto a otras muchas aplicaciones. En 1971, Intel introdujo en el mercado el microprocesador de cuatro bits conocido como el modelo 4004. Era una CPU completa monolítica con 45 instrucciones en tecnología PMOS con 2300 transistores. El éxito del procesador fue inmediato y su amplia difusión supuso el comienzo de una auténtica revolución industrial. Dos años posteriores a la presentación del primer procesador, Intel desarrolla el microprocesador de 8 bits 8008 con una velocidad de 50000 instrucciones por segundo. Este continuo desarrollo de los microprocesadores ha permitido en la actualidad construir procesadores de 32 bits con altas velocidades de procesado. La evolución de los microprocesadores es actualmente muy rápida, con creciente implantación en los procesos de automatización industrial, robótica, instrumentación inteligente, y en los elementos de sociedad de consumo, automóviles, electrodomésticos, etc. La introducción de microprocesadores más potentes ha marcado un rápido desarrollo de los microcomputadores y computadores personales, y su implantación es cada vez más importante en el ámbito de automatización de oficinas e industria, comunicaciones y redes informáticas. UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD ESCUELA DE CIENCIAS BÁSICAS, TECNOLOGÍA E INGENIERÍA CONTENIDO DIDÁCTICO DEL CUSO: 299008 – MICROELECTRÓNICA TENDENCIAS FUTURAS INTRODUCCIÓN7 La informática se desarrolló bajo una divisa implícita: más pequeño, más rápido, más barato (smaller, faster, cheaper 8). Estas tres palabras al mismo tiempo describían el acontecer y expresaban el deseo de la industria. Eran similares a la divisa que el barón Pierre de Coubertin había elegido para los juegos olímpicos modernos, una terna de palabras latinas –que describían la misma idea– para caracterizarlos: altius, citius, fortius (más alto, más rápido, más fuerte). Hoy sabemos que la finalidad última de la revolución informática es la construcción de lo que se ha llamado la Sociedad de la Información, una nueva manera de relacionarnos entre nosotros y con la naturaleza, asistidos a cada paso por las máquinas informáticas para reducir al mínimo los procesamientos algorítmicos de la información y liberar así la máxima capacidad creadora de la actividad humana. Es, por lo tanto, una pregunta central de nuestro tiempo intentar responder cuándo ocurrirá esta Sociedad de la Información. SMALLER En el comienzo de la electrónica lo primero que se advirtió fue que cada vez los circuitos eran más pequeños. La tríada comenzó en smaller. La microelectrónica comenzó en 1961 con los circuitos integrados. En 1965 Gordon Moore advertía el crecimiento exponencial de la cantidad de transistores de los circuitos. En un artículo en la revista Electronics publicaba la idea primera de lo que hoy conocemos la “ley” de Gordon Moore. En este entonces era director de Fairchild Semiconductor Corporation, una empresa que forjaría los primeros comienzos de la microelectrónica 9. 7 http://www.itapebi.com.uy/pdfs/1cni.PDF Este artículo fue preparado para el “Primer Congreso Nacional de Informática”, Montevideo, 1997. Fue publicado en 1999 por la Oficina de Apuntes del CECEA como Perspectivas y tendencias de la Informática en el Uruguay. 8 9 una Moore relató muchas veces esta historia. Una las últimas versiones se encuentra en entrevista en Business W eek, 23–jun–97, p. 66. UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD ESCUELA DE CIENCIAS BÁSICAS, TECNOLOGÍA E INGENIERÍA CONTENIDO DIDÁCTICO DEL CUSO: 299008 – MICROELECTRÓNICA Moore tenía tres datos: sabía la fecha del primer transistor plano sobre silicio; los primeros circuitos integrados, en 1961, tenían solamente 4 transistores y observaba que en el presente –es decir 1965– habían alcanzado la enorme suma de 200 transistores. De allí pegó un salto al vacío y adelantó que la densidad de transistores parecía duplicarse cada año. Gordon Moore sería consecuente con esta idea y se convertiría en uno de los pioneros del smaller, faster, cheaper: pocos años después fundaría Intel Corporation y lideraría la revolución de los microprocesadores y las memorias electrónicas. En 1975, con la experiencia acumulada por Intel, analizó la tendencia de nuevo y se declaró que el número de transistores se duplicaba cada dos años. La cifra generalmente aceptada actualmente es intermedia: cada 18 meses se duplica el número de transistores de los chips. La Ley de Gordon Moore –y algunas otras leyes relacionadas– establecen que los diferentes parámetros físicos de los circuitos electrónicos integrados crecen en forma exponencial en el tiempo. Estas leyes son típicas leyes empíricas acerca de las cuales no existe mayor fundamentación teórica. Desde el momento de su formulación hasta el presente han sufridos algunas modificaciones no substanciales en los valores de sus parámetros, pero su validez ha permanecido esencialmente no cuestionada. El número de transistores de un chip depende en forma crítica de las dimensiones del transistor y de los demás elementos geométricos empleados. El tamaño del chip no incide demasiado porque no se puede aumentar en forma importante el tamaño del trozo de silicio empleado. En la jerga técnica este problema se conoce como “las reglas de diseño”. El mosaico que forma el chip emplea elementos que tienen un cierto tamaño típico. Este módulo es conocido como la “regla de diseño” empleada. El Cuadro 1 se presenta algunas cifras. Cuadro 1: Evolución de las reglas de diseño de los circuitos integrados. fecha reglas de diseño 1970 20 micras 1975 10 micras 1978 4,5 micras 1980 2 a 3 micras 1996 0,35 micras 1997 0,25 micras 1999 0,18 micras ref. [1] [1] [1] [1] [5] [5] [5] Vale la pena señalar al pasar, como dato curioso porque no tiene importancia de ningún tipo, que las dimensiones de las células son del orden de la micra. UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD ESCUELA DE CIENCIAS BÁSICAS, TECNOLOGÍA E INGENIERÍA CONTENIDO DIDÁCTICO DEL CUSO: 299008 – MICROELECTRÓNICA Esto quiere decir que los transistores de las computadoras personales de la década del 80 ya habían alcanzado dimensiones “biológicas”. FASTER, CHEAPER Una consecuencia no detectada desde el principio, pero relacionada íntimamente con los procesos físicos que ocurrían en el transistor, fue que la miniaturización implicaba un aumento de velocidad del procesamiento. En la medida que las distancias a recorrer dentro del silicio por los lentos portadores de carga eran cada vez menores, los transistores podían trabajar cada vez a mayor velocidad. En el Cuadro 2 se presenta la historia de los procesadores de Intel y alguna especulación acerca del futuro. Cuadro 2: Evolución de los chips de Intel en sus diversas características.[5] chip lanzamiento precio transistores MIPS 4004 11/71 200 2,3 K 0.06 8008 4/72 300 3,5 K 0.06 8080 4/74 300 6K 0.6 8086 6/78 360 29 K 0.3 8088 6/79 360 29 K 0.3 286 2/82 360 134 K 0.9 386 10/85 299 275 K 5 486 4/89 950 1,2 M 20 Pentium 3/93 878 3,1 M 100 Pentium pro 5/95 974 5,5 M 300 786 ? 1997 1000 8M 500 886 ? 2000 1000 15 M 1.000 1286 ? 2011 ? 1G 100.000 Se puede comprobar claramente que faster es una consecuencia de smaller. Más adelante regresaremos sobre este punto. En cambio cheaper no es verdadero en forma literal. Los precios de los procesadores hasta el 486 se mantuvieron esencialmente constantes. En el momento de su lanzamiento costaron siempre alrededor de 300 dólares. Esta situación se modificó en forma notable con la llegada del 486. Se lanza un nuevo chip a la venta cuando es económicamente viable, por esta razón su precio es esencialmente constante. Esta situación parece cambiar a partir de la enorme difusión de la computadora W intel con el procesador 486. Sin duda existieron cambios en la estrategia comercial y es posible que la situación de virtual monopolio de Intel sea la responsable del aumento de precios. Es claro que los analistas de mercado no prevén una UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD ESCUELA DE CIENCIAS BÁSICAS, TECNOLOGÍA E INGENIERÍA CONTENIDO DIDÁCTICO DEL CUSO: 299008 – MICROELECTRÓNICA disminución de precios para el futuro. Intel sostiene que es cada vez más costoso montar una fábrica de semiconductores, cada nueva generación duplica su costo [4], y es probable que tenga razón, no obstante lo cual es opinión personal de este autor que la verdadera razón del aumento de precios y de las enormes ganancias de Intel en los últimos años se debe a la situación de monopolio10. Es claro, sin embargo, que existe una disminución de precio en el sentido de que lo mismo cuesta –exponencialmente– cada vez menos. Nuevamente aquí la tercera palabra es consecuencia de las otras dos. Más pequeño significa más rápido, más rápido (a precios esencialmente constantes) significa más barato. EL LÍMITE FÍSICO Todo lo presentado nos lleva de la mano a que la revolución electrónica depende crucialmente de la capacidad para fabricar transistores cada vez más pequeños. Pero este proceso tiene un límite: la estructura atómica del silicio. De seguir las tendencias actuales, tarde o temprano se tropezará con límites físicos que de tendrán el proceso u obligarán a una nueva y revolucionaria tecnología. Es interesante analizar cuándo ocurrirán estos fenómenos. Lewis [3] presenta cifras ajustadas de las diferentes exponenciales relacionadas con la Ley de Gordon Moore. Tal como fuera originalmente formulada, la ecuación de la forma: kB t donde k y B son constantes empíricas y t es el tiempo en años. En el Cuadro 3 se presentan algunas constantes empíricas para diversos sectores industriales de avanzada. Cuadro 3: Algunas áreas tecnológicas en crecimiento exponencial. [3] área de actividad B Manufactura de aviones 1,1 Ley de Gordon Moore 1,48 Ley de Gordon Moore 1,56 10 comentarios mejora de características versión original mejor ajuste actual A pesar de la reconocida línea económica liberal de Business Week, nunca ha sugerido esta interpretación al fenómeno. UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD ESCUELA DE CIENCIAS BÁSICAS, TECNOLOGÍA E INGENIERÍA CONTENIDO DIDÁCTICO DEL CUSO: 299008 – MICROELECTRÓNICA Comunicaciones 1,78 Megabits por segundo por Km. Resulta claro de estas cifras que la electrónica es una de las ramas que más ha crecido en la historia de la humanidad si la comparamos, por ejemplo, con otra área de crecimiento vertiginoso como es la aviación. Sin embargo, las cifras empíricas muestran –lo que es conocido por demás– que las comunicaciones crecen todavía más que la electrónica. En el Cuadro 4 se presentan los coeficientes empíricos actuales para el crecimiento de la velocidad de procesamiento y del número de transistores de los chips. Es interesante observar que la velocidad crece más que la cantidad de transistores, lo cual evidencia las mejoras de las técnicas de diseño de los procesadores por mayor empleo del paralelismo interno. Cuadro 4: Mejor ajuste actual al crecimiento de la microelectrónica. [3] área de actividad crecimiento de los MIPS crecimiento del número de transistores B k 1,56 0,002374 1,37 1,492 Si aceptamos que estas ecuaciones empíricas representan la tendencia histórica de la microelectrónica, ahora será sencillo investigar cuando – plausiblemente– se llegará a los límites físicos de fabricación de nuevos chips. Aplicando la Ley de Gordon Moore con las cifras del Cuadro 4 en el 2006 se llegará a un transistor por átomo de silicio. Es claro que las tendencias actuales predicen entonces una corta vida a la actual frenética revolución de la microlectrónica. Este resultado sorprendente contrasto con otra predicción alentadora. Si suponemos que el chip último que se puede fabricar en silicio es capaz de realizar una operación, a la velocidad de la luz (el límite físico) entre dos átomos del cristal, esto conduce a 3x1011 MIPS y este límite se alcanzaría, según la ecuación empírica, más allá del 2020. Esto significa que el chip último se encuentra, posiblemente, a menos de una década del presente. Es interesante observar que el problema no se soluciona cambiando el silicio por otro material: las propiedades de los cristales son muy parecidas entre sí, otro semiconductor no cambiará nada esencial en estos límites físicos. Muchos autores ya han advertido de este problema de los límites físicos de los transistores. Keys [2] sostiene que al acercarse las reglas de diseño a 100 Ångstroms (0,01 micras) empiezan los efectos cuánticos. El límite de laboratorio posiblemente esté en 30 Ångstroms (0,003 micras) y se llegará a UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD ESCUELA DE CIENCIAS BÁSICAS, TECNOLOGÍA E INGENIERÍA CONTENIDO DIDÁCTICO DEL CUSO: 299008 – MICROELECTRÓNICA estos límites hacia el 2003. Otros autores sostienen que el proceso será más lento y que recién en el 2010 se llegará a 0,1 micras 11. Su propuesta de nueva tecnología consiste en reemplazar los transistores por “islotes atómicos” de 20 nanometros de largo (0,02 micras) que contienen unos 60 átomos de silicio de largo, porque todavía no se manifiestan en forma “molesta” las propiedades cuánticas. Algunos van más lejos, en la Universidad de Minnesota anunciaron recientemente la posibilidad de almacenar un único electrón por vez [7] y esto permitiría llevar muy lejos el límite físico de aplicación de la ley de Gordon Moore. Cualquiera sea la posición adoptada, parece existir acuerdo en los comienzos del siglo XXI algo muy trascendente ocurrirá con la microelectrónica y no es claro que se puede continuar al ritmo en que se venía. Al detenerse el smaller es de esperar consecuencias importantes para el cheaper y el faster. La respuesta clásica al agotarse las posibilidades de chips más densos es emplear, en forma masiva, el paralelismo. Este problema fue estudiado desde varias décadas atrás, en particular por Gene Amdahl, el diseñado de la IBM /360. Por acumulación de procesadores pueden crearse máquinas más potentes a partir un chip dado, pero este mecanismo tiene algunas sorpresas: • El límite del paralelismo de máquinas se encuentra en la velocidad de comunicación de los buses internos de los chips. Los MIPS se encuentran limitados por los límites físicos de la comunicación y éstos, por la velocidad de la luz. • A los chips les está ocurriendo otro fenómeno: la complejidad de la interconexión. Cada vez más la superficie del chip está destinada a interconectar transistores [6]. Este fenómeno que se manifiesta a nivel de chips también será notorio en las placas y por este lado también hay una limitación importante. • El paralelismo cambia la ecuación de cheaper. Hasta hoy, lo mismo costaba menos en forma exponencial. Al depender del paralelismo, desaparece este efecto. Se llega al límite de costo y, en adelante, más capacidad de procesamiento significará un costo proporcional. Estas consideraciones muestran que parece estarse llegando al borde del smaller, faster, cheaper. 11 Gary A. Franzier, de Texas Instruments, advierte que posiblemente se trabaje en esta fecha con reglas menores y se estará al borde cuántico. Indica que será necesaria una nueva tecnología. Business W eek, 1–jul–96, p. 53. UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD ESCUELA DE CIENCIAS BÁSICAS, TECNOLOGÍA E INGENIERÍA CONTENIDO DIDÁCTICO DEL CUSO: 299008 – MICROELECTRÓNICA ¿Cuándo ocurrirá el futuro? Cuadro 5: Ventas y computadoras personales estimadas en el mundo. año 1995 1996 1997 1998 1999 2000 2001 2002 2003 2004 2005 2006 2007 2008 2009 2010 parque 14 18 24 31 41 53 69 90 1173 1525 1983 2578 3351 4357 5664 7363 ventas en 45 59 77 100 130 169 219 285 371 482 626 814 1058 1376 1789 2325 El punto más interesante en el Cuadro 5 es la observación que hacia mediados de la década siguiente, de mantenerse las tendencias actuales, existirá una computadora personal cada dos habitantes del planeta. Este es un hecho sumamente significativo que merece ser analizado con cuidado. Las cifras del Cuadro 5 suponen que las tendencias actuales, es decir las que se han mantenido a lo largo de toda la revolución de la microelectrónica, las que predice la ley de Gordon Moore, se conservarán en los próximos diez años. Todo el mundo parece estar de acuerdo con esta hipótesis, ningún analista espera un cambio importante en el futuro próximo. No obstante esto, en general no se realiza una proyección de este tipo. Examinemos entonces la proyección en sus diferentes hipótesis de futuro. La primera hipótesis consiste en suponer que las tendencias históricas se mantienen. En este caso, la Sociedad de la Información habrá llegado hacia el 2005. El número de computadoras personales será comparable al de televisores o teléfonos. Todos los habitantes del planeta tendrá acceso a un medio informático y todo ocurre tal cual lo predicen los augures de la modernidad. La propuesta reciente de las Network Computers apunta, sin duda, en esta dirección. Sin embargo hay algunas dificultades, entre ellas: UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD ESCUELA DE CIENCIAS BÁSICAS, TECNOLOGÍA E INGENIERÍA CONTENIDO DIDÁCTICO DEL CUSO: 299008 – MICROELECTRÓNICA • • • Esta situación no parece económicamente viable. Una computadora cada dos habitantes supone que este nivel de informatización ha llegado a la India, a China y también a los países paupérrimos del Tercer Mundo. No parece posible educar a la población planetaria para el uso cotidiano de las computadoras personales. En la mayoría de los países del planeta la informática no ha llegado a los niveles escolares pero los habitantes del 2005 ya están llegando a la escuela. No parece posible que la economía asimile este volumen de computadoras. Si bien los procesos de automatización avanzan a toda velocidad, provocan un desempleo creciente. El convertir a la computadora personal en el reemplazo universal del papel, de los medios de trabajo, de los medios de entretenimiento y de los medios de comunicación (condición que parece indispensable para llegar a los volúmenes considerados) parece estar lejos de lo que sucede hoy en día. No parece posible que suceda en una década. Las consideraciones anteriores sugieren que la tendencia histórica de evolución de las computadoras no se podrá mantener en el futuro próximo. En el presente las 200 millones de computadoras personales significan solamente del orden del 4% de la población mundial. Por cierto que están muy desigualmente repartidas: • Usualmente se acepta que Estados Unidos tiene el 40% de las computadoras del mundo. Esto supone al día de hoy unas 80 millones de computadoras personales lo cual es una computadora cada 3 habitantes aproximadamente. Esto significa que ya se ha llegado allí casi a los niveles de saturación. • Japón posee un 10% de las computadoras del mundo y estas 20 millones de computadoras con una cada 6 habitantes. • También se acepta que Europa tiene el 30% de las computadoras del Mundo. Esto supone hoy en día unas 60 millones de computadoras, tal vez una cada 10 habitantes. Como se ve, el 20% restante, unas 40 millones de computadoras, están en el resto del planeta y es este sector el que difícilmente pueda seguir el ritmo de crecimiento del pasado. Este análisis significa que hay grandes cambios en el futuro inmediato de la computación. Lo más importante tiene que ver con el cambio de velocidad del mercado. Si no se puede continuar vendiendo a la enorme velocidad que se vendía en el pasado, entonces el ritmo de la ley de Gordon Moore debe cambiar, no ya por acercarse a posibles límites físicos sino por razones económicas. Está implícito en esta ley que se continúa invirtiendo al ritmo que corresponde. Pero todo parece indicar que en algún momento se invertirá en el desarrollo de un chip que no se venderá al ritmo esperado. Este es el momento UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD ESCUELA DE CIENCIAS BÁSICAS, TECNOLOGÍA E INGENIERÍA CONTENIDO DIDÁCTICO DEL CUSO: 299008 – MICROELECTRÓNICA en que el cheaper condiciona al smaller. Tal como se mencionó antes, cada nuevo chip exige una inversión doble del anterior. Esta inversión debe ser amortizada con la venta de los chips. Si el ritmo de venta decrece, el tiempo de amortización aumentará y por lo tanto, la velocidad de cambio disminuirá. Con las cifras que hemos manejado, en unos pocos años la industria de las computadoras deberá frenarse en su ritmo de crecimiento y, por lo tanto, cambiar mucho el estilo smaller, faster, cheaper. Ocurrirá entonces el cierre de la tríada, al fracasar el cheaper, se frenará el smaller y todo cambiará. Tal vez el aumento de precios de los últimos chips son una señal de que este proceso ya ha comenzado. CONCLUSIONES Si las hipótesis del presente artículo son correctas, asistiremos en la próxima década a profundos cambios en el mercado de la computación. Posiblemente algunos gigantes de hoy desaparezcan mañana. Posiblemente el ritmo vertiginoso de crecimiento que ha ocurrido en el pasado se detenga y la industria de la computación adquiera el mismo ritmo de innovación que cualquiera de las industrias de electrodomésticos. Esto hará que cambie todo: la necesidad de profesionales, la educación y hasta la manera de diseñar los productos. La Sociedad de la Información deberá esperar por la economía por la imposibilidad de penetrar los mercados de los países pobres al ritmo del presente. Tal vez esta sea la más importante y feliz de las consecuencias dentro de este panorama poco alentador que parece avizorase. UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD ESCUELA DE CIENCIAS BÁSICAS, TECNOLOGÍA E INGENIERÍA CONTENIDO DIDÁCTICO DEL CUSO: 299008 – MICROELECTRÓNICA LECCIÓN 3: PROCESO DE FABRICACIÓN El objetivo de la presente lección es presentar el proceso de fabricación de circuitos integrados CMOS de forma que se comprenda la finalidad de cada una de las etapas del proceso y, a la vez, se profundice en la comprensión de la estructura de los transistores MOS y en la manera de conectarlos para formar circuitos digitales. La integración CMOS consiste en formar zonas semiconductoras N y P y la zona de óxido de puerta con polisilicio encima de ella e interconectar los diversos transistores entre sí y con la fuente de alimentación, todas estas conexiones mediante líneas de metal (aluminio). Las regiones citadas no se encuentran en el mismo plano sino en «pisos» sucesivos: las difusiones penetran en la oblea semiconductora, el óxido de puerta y el polisilicio se elevan sobre ella y el metal circula por encima de todo el conjunto. Sendas capas de óxido separan los transistores entre sí y al metal de todo lo que tiene debajo, salvo en los puntos en que debe establecer conexión. Pero, además, las difusiones N requieren un substrato P que es el dopado propio de la oblea, mientras que las difusiones P precisan de substrato N que habrá que formarlo previamente sobre la oblea P: los pozos. El substrato P debe estar polarizado a la tensión más negativa y los pozos N a la más positiva, en ambos casos con la finalidad de que las uniones difusión-substrato queden aisladas, en polarización inversa. Por ello, en la superficie de la oblea, separados por óxido denominado de campo, tendremos los transistores y los contactos de polarización de los substratos; al conjunto de todos ellos (transistores y polarizaciones) les denominamos zonas activas. FABRICACIÓN DE NMOS Y PMOS El transistor MOSFET es la estructura actualmente más utilizada en la tecnología microelectrónica VLSI. Varias razones explican esta preeminencia. Primero es una estructura autoaislada eléctricamente no siendo necesario fabricar islas de material aisladas por uniones. Este hecho permite colocar transistores MOS juntos en el chip con el consiguiente ahorro de espacio y de pasos de proceso. Segundo, puede ser fabricado en el substrato sin la necesidad de crecer costosas capas epitaxiales. Sin embargo cada vez se usan más las epitaxias para mejorar las características de funcionamiento de los dispositivos MOS. Finalmente es un dispositivo de alta impedancia por lo que su consumo de potencia es bajo. A continuación describiremos el proceso de fabricación de una estructura MOS básica: el transistor NMOS. Mencionar que continuamente aparecen UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD ESCUELA DE CIENCIAS BÁSICAS, TECNOLOGÍA E INGENIERÍA CONTENIDO DIDÁCTICO DEL CUSO: 299008 – MICROELECTRÓNICA modificaciones de esta estructura para diversas aplicaciones o mejora de características. El NMOS (Negative-channel Metal-Oxide Semiconductor) es un tipo de semiconductor que se carga negativamente de modo que los transistores se enciendan o apaguen con el movimiento de los electrones. En contraste, los PMOS (Positive-channel MOS) funcionan moviendo las valencias de electrones. El NMOS es más veloz que el PMOS, pero también es más costosa su fabricación. Actualmente es el tipo de tecnología que más se usa en la fabricación de circuitos integrados. La figura 1.2 muestra el corte transversal de un MOSFET con canal n. Se observa la estructura n (fuente/zona roja) p (puerta/zona azul)) n (drenado/zona roja) típica de un transistor. La aplicación de tensión al electrodo puerta (zona amarilla) provocará una inversión superficial bajo el óxido de puerta (zona azul bajo puerta) creando un canal n que pondrá en contacto fuente y drenado (zonas rojas). (Field Effect Transistor FET). Figura 1.2. Sección transversal de un transistor MOSFET con canal n El proceso de fabricación de este dispositivo sería el siguiente. 1) Se parte de un substrato de silicio monocristalino tipo p de una resistividad » 5 W .cm y orientado según una dirección <100> 2) Se crece mediante oxidación térmica una capa de SiO2 de » 500 A de espesor seguido de una deposición de nitruro de silicio de » 1000 A 3) El área activa del dispositivo es definida mediante fotolitografía creándose un canal de parada por implantación de boro a través del óxido/nitruro 4) Se elimina el nitruro no protegido por la fotoresina y el wafer es introducido en un horno de oxidación con el objetivo de crecer el óxido de campo (Field Oxide, FOX, » 0.5-1 m m) y realizar la distribución del boro. UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD ESCUELA DE CIENCIAS BÁSICAS, TECNOLOGÍA E INGENIERÍA CONTENIDO DIDÁCTICO DEL CUSO: 299008 – MICROELECTRÓNICA 5) La capa óxido/nitruro es eliminada de la zona activa y a continuación se crece el óxido de puerta de algunos centenares de ángstrom de espesor. En la tecnología punta actual el espesor de este óxido de silicio es de solo decenas de angstroms. Para ajustar la tensión umbral, tensión puerta-fuente por encima de la cual se produce el canal n y el dispositivo conduce, se implanta la dosis de iones adecuada en el canal 6) Se crece el polisilicio del electrodo puerta, zona amarilla en la figura, el cual es fuertemente dopado mediante difusión o implantación de fósforo hasta conseguir una resistencia de hoja de 20-30 W /—. Con el objetivo de reducir la resistencia del electrodo de puerta hasta » 1 W /• se utilizan los siliciuros ya explicados anteriormente. 7) Una vez definida mediante fotolitografía el electrodo puerta se crean la fuente y el drenado, zonas n+ rojas en la figura, mediante implantación de arsénico, » 30 keV » 1016 cm-2, utilizando como máscara el electrodo puerta 8) Deposición de una capa de PSG mediante CVD y posterior tratamiento térmico para conseguir una topografía suave 9) Proceso fotolitográfico interconexiones. de apertura de ventanas para contactos e 10) Deposición de capa de aluminio mediante sputtering y proceso fotolitográfico para la definición de contactos e interconexiones en la capa metálica. El contacto al electrodo puerta se realiza fuera de la zona activa del dispositivo para evitar posibles daños a la capa delgada de óxido de puerta. En este proceso NMOS hay seis operaciones de crecimiento de película, cuatro pasos de fotolitografía, tres implantaciones iónicas y cuatro operaciones de ataque ahorrándose dos operaciones de fotolitografía y un proceso de implantación en comparación con el proceso bipolar básico. FABRICACIÓN DE BJT Y FET El transistor de efecto campo (Field-Effect Transistor o FET, en inglés) es en realidad una familia de transistores que se basan en el campo eléctrico para controlar la conductividad de un "canal" en un material semiconductor. Los FET, como todos los transistores, pueden plantearse como resistencias controladas por voltaje. La mayoría de los FET están hechos usando las técnicas de procesado de semiconductores habituales, empleando la oblea monocristalina semiconductora como la región activa o canal. La región activa de los TFTs (thin-film transistores, o UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD ESCUELA DE CIENCIAS BÁSICAS, TECNOLOGÍA E INGENIERÍA CONTENIDO DIDÁCTICO DEL CUSO: 299008 – MICROELECTRÓNICA transistores de película fina), por otra parte, es una película que se deposita sobre un sustrato (usualmente vidrio, puesto que la principal aplicación de los TFTs es como pantallas de cristal líquido o LCDs). Los transistores de efecto de campo o FET más conocidos son los JFET (Junction Field Effect Transistor), MOSFET (Metal-Oxide-Semiconductor FET) y MISFET (Metal-Insulator-Semiconductor FET). Tienen tres terminales, denominadas puerta (gate), drenador (drain) y fuente (source). La puerta es el terminal equivalente a la base del BJT. El transistor de efecto de campo se comporta como un interruptor controlado por tensión, donde el voltaje aplicado a la puerta permite hacer que fluya o no corriente entre drenador y fuente. El funcionamiento del transistor de efecto de campo es distinto al del BJT. En los MOSFET, la puerta no absorbe corriente en absoluto, frente a los BJT, donde la corriente que atraviesa la base, pese a ser pequeña en comparación con la que circula por las otras terminales, no siempre puede ser despreciada. Los MOSFET, además, presentan un comportamiento capacitivo muy acusado que hay que tener en cuenta para el análisis y diseño de circuitos. Así como los transistores bipolares se dividen en NPN y PNP, los de efecto de campo o FET son también de dos tipos: canal n y canal p, dependiendo de si la aplicación de una tensión positiva en la puerta pone al transistor en estado de conducción o no conducción, respectivamente. Los transistores de efecto de campo MOS son usados extensísimamente en electrónica digital, y son el componente fundamental de los circuitos integrados o chips digitales. En esta sección, se considera el FET de metal –óxido semiconductor (MOSFET). Este FET se construye con la terminal de compuerta aislada del canal con el dieléctrico dióxido de silicio (SiO2), y ya sea en modo de empobrecimiento o bien de enriquecimiento. Estos dos tipos se definen y consideran en las siguientes secciones. MOSFET de empobrecimiento El MOSFET de empobrecimiento se construye con un canal físico construido entre el drenaje y la fuente. Como resultado de ello, existe una iD entre drenaje y fuente cuando se aplica una tensión, v DS. El MOSFET de empobrecimiento de canal n se establece en un sustrato p, que es silicio contaminado de tipo p. Las regiones contaminadas de tipo n de la fuente y el drenaje forman conexiones de baja resistencia entre los extremos del canal n y los contactos de aluminio de la fuente (S) y el drenaje (D). Se hace crecer una capa UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA – UNAD ESCUELA DE CIENCIAS BÁSICAS, TECNOLOGÍA E INGENIERÍA CONTENIDO DIDÁCTICO DEL CUSO: 299008 – MICROELECTRÓNICA de SiO2, que es un aislante, en la parte superior del canal n. Se deposita una capa de aluminio sobre el aislante de SiO 2 para formar el material de compuerta (G). El desempeño del MOSFET de empobrecimiento, es similar al del JFET. El JFET se controla por la unión pn entre la compuerta y el extremo de drenaje del canal. No existe dicha unión en el MOSFET enriquecimiento, y la capa de SiO 2 actúa como aislante. Para el MOSFET de canal n, una v GS negativa saca los electrones de la región del canal, empobreciéndolo. Cuando vGS alcanza VP, el canal se estrangula. Los valores positivos de vGS aumentan el tamaño del canal, dando por resultado un aumento en la corriente de drenaje. MOSFET de enriquecimiento El MOSFET de enriquecimiento difiere del MOSFET de empobrecimiento en que no tiene la capa delgada de material n sino que requiere de una tensión positiva entre la compuerta y la fuente para establecer un canal. Este canal se forma por la acción de una tensión positiva compuerta a fuente, v GS, que atrae electrones de la región de sustrato ubicada entre el drenaje y la compuerta contaminados de tipo n. Una vGS positiva provoca que los electrones se acumulen en la superficie inferior de la capa de oxido. Cuando la tensión alcanza el valor de umbral, V T, han sido atraídos a esta región los electrones suficientes para que se comporte como canal n conductor. No habrá una corriente apreciable iD hasta que vGS excede VT. La corriente de drenaje en saturación se puede calcular de la ecuación: El transistor de unión bipolar (del inglés Bipolar Junction Transistor, o sus siglas BJT) es un dispositivo electrónico de estado sólido consistente en dos uniones PN muy cercanas entre sí, que permite controlar el paso de la corriente a través de sus terminales. Los transistores bipolares se usan generalmente en electrónica analógica. También en algunas aplicaciones de electrónica digital como la tecnología TTL o BICMOS. Un transistor de unión bipolar está formado por dos Uniones PN en un solo cristal semiconductor, separados por una región muy estrecha. De esta manera quedan formadas tres regiones: • Emisor, que se diferencia de las otras dos por estar fuertemente dopada, comportándose como un metal. • Base, la intermedia, muy estrecha, que separa el emisor del colector. • Colector, de extensión mucho mayor. La técnica de fabricación más común es la deposición epitaxial. En su funcionamiento normal, la unión base-emisor está polarizada en directa, mientras que la base-colector en inversa. Los portadores de carga emitidos por el emisor atraviesan la base, que por ser muy angosta, hay poca recombinación de