Monografias-nanoporu.. - Fundación Argentina de Nanotecnología

Anuncio
MONOGRAFÍAS GANADORAS
NANOTECNÓLOGOS POR UN DÍA
2012
INTRODUCCION
Las monografías que acá se presentan son el resultado de la etapa final del Programa “Nanotecnólogos por
un día” que la Fundación Argentina de Nanotecnología llevó adelante por segundo año consecutivo durante el año 2012.
La iniciativa incluyó el trabajo de especialistas y expertos en nanotecnología que brindaron conferencias
en siete provincias argentinas, lo que implicó la participación de 72 escuelas medias y la asistencia de 1935
alumnos y 185 docentes.
Como colorario de este intenso trabajo de difusión, más de 250 alumnos se inscribieron para participar en la
instancia final que consistió en la entrega de un trabajo monográfico, individual o grupal. Finalmente, seis
investigadores nacionales, expertos en la temática, seleccionaron los diez documentos que se presentan en
esta publicación.
Este proceso se coronó con la visita de los estudiantes seleccionados a dos de los más importantes laboratorios de nanotecnología del país, instancia en la que pudieron ser “nanotecnólogos por un día”. Asimismo la
FAN otorga a las escuelas a las que estos jóvenes concurren, un aporte económico que les permita mejorar
sus aulas-laboratorios.
La FAN se complace en aportar con el Programa “Nanotecnólogos por un día” a la formación tecnológica de
estudiantes de los últimos años de la escuela media, en ayudarlos a descubrir la ciencia y la tecnología, fortaleciendo los saberes docentes en estas temáticas de punta.
La publicación de las monografías ganadoras nos llena de orgullo y satisfacción porque muestra a las claras
el fruto de la visión y entusiasmo de los jóvenes por el futuro de la mano del compromiso sus docentes. A
todos ellos ¡muchas gracias!
INDICE
Nanotecnólogos por un día 2012
La miniaturización del transistor ................................................................................................................ 4
La nanotecnología ....................................................................................................................................... 20
Grandes descubrimientos y mejoras implican la coperación de muchas mentes ........................................ 36
Aplicaciones nanotecnológicas en el aprovechamiento de energía eólica y fotovoltaica ........................... 49
Nanotecnología, un mundo en miniatura .................................................................................................... 62
Nanotecnología en tratamientos térmicos de los aceros ............................................................................. 75
Salud bucal - Forma de combatir caries ...................................................................................................... 86
La nano con el mundo en sus manos .......................................................................................................... 91
Física Cuántica VS Física Clásica .............................................................................................................. 99
La miniaturización del transistor
Alumno: Alejo Icasatti
Instituto Privado D-187 “Jesús el Maestro”
Paraná, Entre Rios
Nanotecnólogos por un día 2012
1. Introducción
Al día de hoy han transcurrido casi ochenta años desde la invención de la primera calculadora electromecánica basada en sistema binario, llamada Z1, diseñada y creada por el ingeniero alemán y pionero de
la computación Konrad Zuse. La Z1 operaba con corriente eléctrica y contaba con la posibilidad de poder
programarla, aunque de forma restringida. Este diseño evolucionó, por intermedio del modelo Z2, hacia la
que se considera la primera computadora completamente programable y automática de la historia, llamada
Z3.La lógica de la computadora Z3 también funcionaba en base a mecanismos electromecánicos y, aunque
difería mucho de lo que concebimos hoy como ordenador, se basaba en el mismo principio de operación: el
procesamiento y el almacenamiento de la información en lenguaje binario (1’s o 0’s) o bits. En aquel momento
los componentes encargados de representar los bits eran relés, que son dispositivos electromagnéticos hoy en
día rudimentarios. La Z3 contaba con alrededor de 2000 relés, de los cuales el procesador estaba constituido
por 600 de ellos y la memoria por 1400 [1]. Después de esto, en 1946, se creó la ENIAC (ElectronicalNumericalIntegrator And Computer o, en español, Computador e Integrador Numérico Electrónico). La ENIAC fue
el primer ordenador electrónico digital para propósitos generales a gran escala. En su tiempo fue la maquina
más grande del mundo y procesaba información de manera 100 % digital, es decir mediante operaciones puramente electrónicas y sin partes mecánicas (exceptuando la carga del programa, que debía hacerse mecánicamente). La ENIAC ocupaba un área de 167 m2 y manipulaba un total de 17.468 tubos de vacío o válvulas
termoiónicaspara representar los bits de información (al igual que los relés de la Z3). La potencia de cálculo
de la ENIAC permitía realizarcerca de 5000 sumas y 300 multiplicaciones por segundo [2].
Las dimensiones de un relé, tanto hoy en día como en la época de la Z3 (1941), están en el orden de los
10 centímetros. Por su parte, las válvulas termoiónicas, que ya han prácticamente dejado de existir, también
tenían dimensiones del mismo orden. Desde entonces, el tamaño de los componentes eléctricos o electrónicos
que necesariamente integran cualquier ordenador ha disminuido drásticamente. Los transistores en particular,
que son los bloques constitutivos más elementales de la electrónica de un ordenador moderno (equivalentemente los relés en el caso de la Z3 o las válvulas en el caso de la ENIAC), han sufrido una reducción de escala
abrumadora. Actualmente un microprocesador está constituido por transistores cuyos tamaños rondan los 30
nanómetros, lo que indica un factor de reducción de escala de aproximadamente 10–1m/10–8 m = 107, o de 7
órdenes de magnitud [3]. Una reducción de tamaño comparable a éste se daría si, por ejemplo, pudiéramos
reducir el tamaño de la Tierra de tal manera de cubrir la distancia en línea recta desde La Quiaca hasta Ushuaia
al caminar sólo un paso.
Esta reducción de escala de los transistores se denomina comúnmente como miniaturización, y ha sido
uno de los motores más importantes en el avance de la tecnología, en su más amplia concepción.
2. Miniaturización
Esta tendencia ha hecho posible la llegada de dispositivos tecnológicos a todos los ámbitos de la sociedad global, ya que una reducción de tamaño va ligada directamente a la portabilidad y a una disminución de
costos de los mismos. Además, como consecuencia de este avance, también ha ido aumentando notablemente
la potencia de cálculo de los ordenadores a lo largo del tiempo. Todo esto ha tenido enormes consecuencias
en la economía mundial.
La progresión de la miniaturización, a grandes rasgos, puede resumirse a lo largo de las décadas pasadas como sigue [4]:
• 1950–1959: Los ordenadores estaban construidos contubos de vacío para procesar la información, empleaban tarjetas perforadas para ingresar los datos y los programas; usaban cilindros magnéticos para almacenar información e instrucciones internas. Eran artefactos gigantes-
Nanotecnólogos por un día 2012
cos que llenaban varias habitaciones con auténticas junglas de cables, bobinas y acero. Solo el
ejército era lo suficientemente rico como para costear aquellas monstruosidades.
• 1960–1969: Los transistores sustituyeron a los ordenadores de tubos de vacío, y las computadoras centrales fueron introduciéndose gradualmente en el mercado.
• 1970–1979: Las placas de circuitos integrados, que contenían cientos de transistores, crearon
el minicomputador, cuyo tamaño venía a ser el de una mesa grande.
• 1980–1989: Los chips, que contenían decenas de millones de transistores, llegaron a hacer
posible la fabricación de ordenadores personales que podían caber en un maletín.
• 1990–1999: Internet conectó cientos de millones de ordenadores en una sola red global.
• 2000–2010: El uso omnipresente del ordenador sacó al chip del interior de este aparato, de tal
modo que los chips se han diseminado por todo nuestro entorno (por ejemplo en teléfonos celulares, reproductores de música, sensores, etc.).
La miniaturización en la computación se debe a que se ha reducido de manera significante el tamaño de
los circuitos electrónicos a medida que la tecnología fue permitiendo manipular la materia a escalas cada vez
menores. Esta manipulación dio como resultado la posibilidad de introducir más componentes electrónicos en
menos especio físico y reducir la distancia entre los transistores, con lo que se logra aumentar la velocidad en
el proceso de la información.
2.1 La ley de Moore y su fin
En 1965, Gordon Moore, (cofundador en 1968 de la compañía Intel Corporation) afirmó que el número
de transistores en un circuito integrado se duplica cada año y que esta tendencia continuaría durante al menos
una década. Más tarde, su colega David House, modificó esta afirmación y predijo que el ritmo bajaría y que
la cantidad de transistores en un circuito integrado se duplicaría aproximadamente cada 18 meses. Esto quiere
decir que cada 18 meses, por la misma cantidad de dinero, se puede comprar un microprocesador con el doble
de potencia. Ésta ley resultó ser muy exacta desde entonces, sobrepasando ampliamente el período para el cual
fue predicha en su momento. En la Figura 1 puede observarse la exactitud de la ley para varios de los procesadores más emblemáticos a lo largo del tiempo [5].
Nanotecnólogos por un día 2012
Figura 1 – Verificación de la ley de Moore. La línea sólida indica la tendencia predicha por la ley y los puntos corresponden a diferentes microprocesadores que surgieron en la evolución de la computación. La escala vertical se grafica
en escala logarítmica, por lo cual la línea recta indica un crecimiento exponencial [5].
De todas maneras, la tendencia marcada por la ley de Moore va perdiendo vigencia. La compañía Intel, líder mundial en fabricación de microprocesadores, ha confirmado que la ley ya no podrá ser mantenida
durante la década actual. En otras palabras, la tendencia de aumento exponencial del número de transistores
en un circuito integrado en función del tiempo que estableció Moore está disminuyendo. Esto se debe principalmente a que cada vez se torna más difícil reducir el tamaño de los transistores, ya que poco a poco se
comienzan a alcanzar las escalas de tamaño del dominio molecular o atómico. Por ejemplo, un transistor de un
microchip actual mide aproximadamente 45nm de ancho, y esta distancia equivale a una estructura cristalina
de silicio con unos 80 átomos a lo largo de esa dimensión. En la Figura 2 se muestran los tamaños comparativos [6].
Nanotecnólogos por un día 2012
Figura 2 – Comparación entre el tamaño de un transistor dentro de un microprocesador moderno con tecnología de
45 nm y el tamaño de la estructura cristalina del silicio. La reducción de escala del transistor inevitablemente lleva a
la manipulación de la materia a escala molecular o atómica, lo cual introduce dificultades prácticas en el proceso de
fabricación [6].
Tal reducción de escala va a dar lugar en las próximas décadas al desarrollo de nuevas tecnologías
tanto del procesamiento de la información como de las técnicas de manipulación de la materia a escala nanométrica o sub-nanométrica [5]. En la Figura 3 se presenta la evolución en la capacidad de almacenamiento de
datos en función del tiempo, que sigue la misma tendencia que la ley de Moore. Esto es consecuencia directa
del aumento de la cantidad de transistores en los microprocesadores. La supervivencia de la Ley de Moore
dependerá entonces de los resultados de las investigaciones en el área de las nanociencias, que llevarán a la
industria de la alta tecnología a otros caminos como la nanoelectrónica, la optoelectrónica e, incluso, la bioelectrónica [7].
Nanotecnólogos por un día 2012
Figura 3 – Evolución de la capacidad de almacenamiento de datos, como consecuencia de la validez de la ley de
Moore. La escala vertical es logarítmica, por lo cual la línea recta marca un crecimiento exponencial [6].
Si la ley de Moore sigue cumpliéndose durante un par de años más, es lógico que las computadoras actuales
superen rápidamente la potencia del cerebro humano. George Harrison dijo “todas las cosas tienen un final”.
Incluso la ley de Moore debe acabarse y, con ella, el ascenso espectacular de la potencia de ordenador, que ha
alimentado el crecimiento económico durante el último medio siglo.
Actualmente es normal tener productos informáticos de una potencia y complejidad que no dejan de
crecer. Esta es la razón por la que cada año compramos nuevos productos informáticos, sabiendo que casi
duplican la potencia del modelo del año pasado. Pero, si la ley de Moore se viene abajo, ¿por qué molestarnos
en comprar nuevos ordenadores? Dado que los chips están presentes en una amplia variedad de productos,
esto podría tener un efecto desastroso en todos los sectores de la economía. Al quedarse totalmente paradas
un montón de industrias, millones de personas podrían perder sus empleos, y la economía sufriría un gran
problema. El desplome de la ley de Moore es un asunto de importancia mundial, y hay billones de dólares en
juego. Sin embargo, el modo exacto en que acabará, y qué la sustituirá, son cuestiones que dependen de las
leyes de física [4].
2.2 Evolución del transistor
El transistor, inventado en 1947 por John Bardeen y Walter Brattain, es un dispositivo electrónico
semiconductor que permite el control y la regulación de la corriente que circula entre dos electrodos llamados
emisor (source) y colector (drain) mediante una señal muy pequeña aplicada en un tercer electrodo llamado
base (gate) [8]. Básicamente cumple funciones de amplificador, oscilador, conmutador o rectificador, aunque
en el ámbito de la informática es el componente electrónico ideal para la representación de valores binarios:
1’s y 0’s. Cuando se aplica un voltaje a la base, circula corriente entre el emisor y el colector (representación
del valor 1) y cuando no se aplica ningún voltaje a la base, no circula corriente a través del mismo (representación del valor 0). Esto se esquematiza en la Figura 4.
Figura 4 – Esquema del funcionamiento de un transistor: (a) sin señal en la base (= 0) y (b) con señal en la base (=1).
Los transistores se basan en las propiedades de conducción eléctrica de materiales semiconductores,
como el silicio o el germanio. Particularmente el transporte eléctrico en estos dispositivos se da a través de
junturas, conformadas por el contacto de materiales semiconductores donde los portadores de carga son de
distinto tipo en función del tipo de átomos (impurezas) que se utilizan para dopar el material: huecos (tipo p) si
el dopaje se realiza con boro oelectrones (tipo n) si el dopaje se hace con fósforo. Las propiedades de conducción eléctrica de las junturas se ven modificadas dependiendo del signo y de la magnitud del voltaje aplicado,
donde, en definitiva, se reproduce el efecto amplificador que se obtenía con las válvulas: operando sobre una
juntura mediante un pequeño voltaje se logra modificar las propiedades de conducción de otra juntura próxima
que maneja un voltaje más importante [8].
Nanotecnólogos por un día 2012
Con el transistor vino la miniaturización de los componentes y se llegó al descubrimiento de los circuitos integrados. En los primeros chips o circuitos integrados, los transistores tenían dimensiones típicas de
alrededor de 1 cm. En 1971 el microprocesador de Intel 4004 tenía unos 2300 transistores [9] con tamaños de
unos 10 micrones, mientras que fue avanzando día a día de manera que un Pentium IV tiene unos 45 millones
de transistores, con dimensiones típicas de alrededor de 180 nanómetros [10].Es decir, que ahora en pocos
milímetros cuadrados, se colocan millones de transistores. Estos circuitos constituyen el origen de los microprocesadores y, por lo tanto, los procesadores actuales.
Los transistores actualmente se clasifican por material semiconductor, estructura, polaridad eléctrica,
máxima potencia, frecuencia máxima de funcionamiento, uso, embalaje físico y factor de amplificación.
Los tipos de transistores actualmente existentes son, brevemente:
• Transistor de unión bipolar:
El transistor de unión bipolar, o BJT por sus siglas en inglés (Bipolar Junction Transistor). El
término bipolar hace referencia al hecho de que en la conducción de la corriente eléctrica intervienen los dos tipos de portadores. El término Junction (unión) hace referencia a la estructura
del dispositivo, ya que si tenemos dos uniones p-n en el transistor y mediante la polarización
de estas uniones conseguiremos controlar el funcionamiento del dispositivo. El transistor es un
dispositivo de tres zonas o capas. Podemos tener una zona de material tipo n en medio de dos
zonas de material tipo p, en este caso se denomina transistor p-n-p, o bien tener una zona tipo
p con dos zonas tipo n a cada lado, en cuyo caso estaríamos hablando de un transistor n-p-n.
La zona central se denomina base, y las laterales emisor y colector. El emisor es el que emite o
inyecta portadores mayoritarios hacia la base. La misión de la base es dejar pasar la mayor parte
posible de portadores inyectados por el emisor hacia el colector. El colector, es el encargado de
recoger o colectar los portadores que inyectados por el emisor han sido capases de atravesar la
base. El transistor se fabrica sobre un monocristal de Germanio, Silicio o Arseniuro de Galio,
que tienen cualidades de semiconductores, que es un estado intermedio entreconductores como
los metales y aislantes como el diamante [12].
• Transistor de efecto de campo:
El transistor de efecto de campo, o FET por sus siglas en inglés (Field-Effect Transistor), se
denomina así porque durante su funcionamiento la señal de entrada crea un campo eléctrico que
controla el paso de la corriente a través del dispositivo. Estos transistores también se denominan
unipolares para distinguirlos de los transistores bipolares de unión, y para destacar el hecho de
que sólo un tipo de portadores –electrones o huecos- intervienen en su funcionamiento. Ocupan
menos espacio en un circuito integrado que el bipolar, además tiene una gran impedancia de entrada (del orden de MΩ). El transistor de efecto de campo utiliza tanto electrones (n-FET) como
huecos (p-FET) para la conducción. Los cuatro terminales de la FET se denominan fuente,
puerta, de drenaje, y el cuerpo (sustrato). En la mayoría de los FET, el cuerpo está conectado a
la fuente dentro del envase. Los FET’s se dividen en dos familias: unión FET (JFET) y FET de
puerta aislada (IGFET). El IGFET es más comúnmente conocido como un FET de metal-óxidosemiconductor (MOSFET), lo que refleja su construcción original a partir de capas de metal (de
la base), de óxido (el aislamiento), y de semiconductores [12].
Otro tipo de transistor dentro de los FET, son los CNTFET (CarbonNanotube Field-Effect Transistor, o en español Transistor de Efecto de Campo de Nanotubos de Carbono). Estos
son láminas cilíndricas de una capa de átomos de carbono. Los experimentos han demostrado
que estos tubos pueden tener propiedades metálicas o semiconductoras. En particular, una sola
pared de nanotubos de carbono muestra propiedades eléctricas superiores y son considerados
Nanotecnólogos por un día 2012
candidatos prometedores para futuras aplicaciones de nanoelectrónica, ya sea como interconexiones o dispositivos activos. Los nanotubos semiconductores se pueden utilizar como elementos activos en el transistor de efecto de campo (FET) [13]. Los transistores de nanotubos de
carbono y los transistores de grafeno (que se describen más adelante) son candidatos a integrar
los microprocesadores de las próximas décadas.
• Transistor de contacto puntual:
Llamado también transistor de punta de contacto, fue el primer transistor capaz de obtener ganancia, inventado en 1947 por John Bardeen y Walter Brattain. Consta de una base de germanio
sobre la que se apoyan, muy juntas, dos puntas metálicas que constituyen el emisor y el colector. La corriente de base es capaz de modular la resistencia que se “ve” en el colector. Se basa
en efectos de superficie, poco conocidos en su día. Es difícil de fabricar (las puntas se ajustaban
a mano), frágil (un golpe podía desplazar las puntas) y ruidoso. Sin embargo convivió con el
transistor de unión (W. Shockley, 1948) debido a su mayor ancho de banda. En la actualidad
ha desaparecido [14].
• Fototransistor:
Los fototransistores combinan en un mismo dispositivo la detección de luz y la ganancia. Su
construcción es similar a la de los transistores convencionales, excepto que la superficie superior que corresponde a la base se expone a la luz a través de una ventana o lente. Cuando el nivel
de luz suficiente llega a la base, se habilita el paso de la corriente entre emisor y colector. En el
caso en que el nivel de luz no sea suficiente, la corriente no puede fluir por el dispositivo [15].
Todos estos tipos de transistores han sufrido la acción de la miniaturización para integrar chips de diversa índole y para diferentes propósitos.
2.3 Últimas tendencias
Los transistores son el ladrillo fundamental de la electrónica actual y su velocidad es la que determina,
en gran medida, qué tan rápido puede ser un equipo electrónico. Los investigadores pertenecientes a los más
importantes fabricantes de componentes electrónicos creen están muy cerca de alcanzar el límite de la velocidad que puede proporcionarnos el silicio, material con el que se fabrican además los microprocesadores actuales. Una de las alternativas que se barajan a la hora de buscar un reemplazo para este material es el carbono,
lo que ha motivado a los laboratorios de las grandes empresas tecnológicas como IBM, Intel y Samsung, a
experimentar con transistores basados en este material [16].
El “gigante azul”, IBM, ha sido durante años la empresa que más cantidad de patentes relacionadas con
la tecnología presenta cada año. Esto habla muy bien de la capacidad de investigación que posee. En un trabajo realizado por PhaedonAvouris, el director de ciencia a escala nanométrica de la empresa, se ha creado un
revolucionario transistor de grafeno capaz de funcionar a una frecuencia de 100GHz [17]. Esto significa que
puede conducir o no conducir una corriente eléctrica entre emisor y colector (según la señal que actúe en la
base) a una velocidad de 1011 veces por segundo, o cien mil millones de veces por segundo, lo cual equivale a
cambiar entre el estado 0 y 1 del lenguaje binario con esa frecuencia. Desde el punto de vista físico, el grafeno
es una estructura laminar plana, de tan solo un átomo de espesor (una monocapa), compuesta por átomos de
carbono densamente empaquetados conformando una red cristalina de tipo hexagonal que tiene la misma
forma que la de un panal de abejas [18]. Cada átomo está ligado a sus vecinos mediante enlaces covalentes.
Su nombre proviene del grafito, material que no es otra cosa que una enorme pila de láminas de grafeno [19].
Es un compuesto que seguramente revolucionará nuestro futuro, ya que es el componente estructural básico
Nanotecnólogos por un día 2012
de todos los demás elementos graníticos incluyendo los nanotubos de carbono y los fulerenos. En la Figura 5
se muestran estas diferentes estructuras compuestas de átomos de carbono, que están revolucionando distintas
áreas de la ciencia [20]. Algunas de estas estructuras permiten fabricar transistores a escalas del orden del
nanómetro, lo cual se está desarrollando actualmente como última tendencia. De esta manera se podría aumentar considerablemente el número de transistores que integran un circuito integrado. Además, las propiedades
de este material permiten una mejor conducción de las cargas eléctricas, y esta es una de las razones que ha
permitido a IBM alcanzar la frecuencia de trabajo de 100GHz con este tipo de dispositivos.
Figura 5 – Distintas nanoestructuras derivadas del carbono: (a) diamante, (b) grafito, cuyas capas individuales son capas de grafeno, (c) lonsdaleíta, un alótropo del carbono, (d)–(f) distintos tipos de fulerenos, cuyos diámetros están en
el orden del nanómetro, (g) carbón amorfo, (h) nanotubo de carbono, cuyo diámetro en general varía entre 1 y 2 nm y
su largo puede ser mucho mayor al micrón [20].
Un microprocesador moderno posee transistores que pueden efectuar solamente unos 3 o 4 mil millones de cambios por segundo (3 o 4 GHz) entre el estado 0 y el estado 1, por lo que el transistor de IBM podría
ser el componente clave que permita la creación de nuevos dispositivos ultraveloces que revolucionarían el
campo de la electrónica y las comunicaciones. En IBM aseguran que “la movilidad de los portadores de carga
en el grafeno lo convierten en un candidato prometedor para los dispositivos electrónicos de alta velocidad.
Este material conductor es el más delgado posible, ya que solo tiene un átomo de grosor. Con el grafeno se
conseguirán fabricar los transistores más pequeños y rápidos, que se hayan fabricado hasta ahora con materiales semiconductores” [21]. En la Figura 6 se pueden observar dos esquemas, con respectivas fotografías de
dispositivos en desarrollo, de transistores de nanotubos de carbono y de grafeno [22].
Nanotecnólogos por un día 2012
Figura 6 – Esquemas y fotografías reales de transistores de (a) nanotubo de carbono y (b) grafeno [22].
La longitud del enlace carbono-carbono en el grafeno es de aproximadamente 0,142 nanómetros. Para formar el grafito, las láminas individuales de grafeno se apilan con un espaciado interplanar de 0,335 nm. El
grafeno es el elemento estructural básico de algunos de carbono alótropos incluyendo grafito, carboncillo , los
nanotubos de carbono y los fulerenos .Este material es transparente, flexible, extraordinariamente resistente,
impermeable, abundante, económico y conduce la electricidad mejor que ningún otro metal conocido [18]. En
las próximas décadas, los dispositivos basados en la tecnología del carbono poblarán el mundo integrando los
más diversos tipos de dispositivos electrónicos.
Otro posible sustituto de los transistores de los chips de silicio son los transistores hechos de moléculas
individuales. Dado que, llegado un punto, los transistores de silicio fallarían porque los tamaños de los cables
y las capas del chip se van reduciendo hasta la escala atómica, ¿por qué no fabricar transistores que consistan
de sólo una molécula o incluso algunos átomos individuales? Un modo de hacer esto es desarrollar transistores
moleculares. Como ya se dijo anteriormente, un transistor es un interruptor que permite controlar el flujo de
corriente eléctrica que pasa entre dos puntos de un circuito. Cabe la posibilidad de sustituir al transistor de
silicio por una sola molécula de sustancias químicas tales como el rotaxano o el bencenotiol. Una molécula
de bencenotiol posee un aspecto de tubo largo que tiene en el centro una especie de válvula hecha de átomos.
Normalmente, la electricidad puede circular libremente a lo largo del tubo, convirtiéndolo en un conductor.
Pero también es posible girar esta válvula de la molécula, con lo que se puede cortar el flujo de la corriente
eléctrica. De este modo, la molécula actúa como un interruptor que puede controlar el paso de la corriente,
al igual que un transistor común y corriente. En una posición, el interruptor permite que pase la electricidad,
y en la otra posición no. De esta manera pueden enviarse mensajes digitales en lenguaje binario de 1’s y 0’s
utilizando moléculas.Los transistores moleculares ya existen. Varias empresas han anunciado el diseño de
transistores de este tipo. Sin embargo, antes de que sean comercialmente viables es preciso cablearlos correctamente y conseguir la producción en serie de los mismos [4].
Otro candidato prometedor para el transistor molecular es, otra vez, el grafeno. Uno de los científicos
galardonados con el premio Nobel en 2010, justamente por sus trabajos sobre el grafeno, Konstantin Novoselov señaló que “desde el punto de vista de la física, el grafeno es una mina de oro. Nunca acaba uno de
Nanotecnólogos por un día 2012
estudiarlo” [4]. El grafeno es también el material más resistente que la ciencia ha probado. Si pusiéramos un
elefante sobre un lápiz y hacemos que este lápiz oscile sobre una hoja de grafeno, esta hoja no se rasgaría. Empleando las técnicas utilizadas habitualmente en la industria informática, el grupo de Novoselov ha grabado
algunos de los transistores más pequeños que se han hecho nunca. Mediante delgados haces electrónicos se
pueden grabar canales en el grafeno, pudiendo obtener así el transistor más pequeño del mundocon un átomo
de espesor y 10 átomos de diámetro. En términos físicos estos transistores de grafeno son tan pequeños que
pueden representar el límite definitivo para los transistores moleculares. Si se hiciera alguno aún más pequeño, las leyes de la física cuántica intervendrían de tal manera que los electrones se escaparían del transistor,
destruyendo sus propiedades. Según Novoselov, esto “viene a ser lo mínimo que se puede conseguir”. Aunque
hay muchos posibles candidatos a convertirse en transistores moleculares, el problema real es cómo cablearlos
y ensamblarlos en un producto que sea comercialmente viable. No basta con crear un solo transistor molecular. Los transistores moleculares tienen fama de ser difíciles de manipular, ya que pueden ser miles de veces
más finos que un pelo humano. Es una pesadilla discurrir los posibles modos de producirlos en masa. Hoy por
hoy, la tecnología no está aún a la altura.Por ejemplo, al día de hoy el grafeno puro sólo puede producirse en
tamaños de hasta de 0,1 milímetros de largo, lo cual es demasiado poco para uso comercial. La esperanza está
puesta en descubrir un proceso que monte automáticamente el transistor molecular [4].
3. Micro… o nanoprocesadores
Un microprocesador es un circuito integrado conformado por millones de componentes electrónicos,
que realiza el procesamiento de los datos. Dada la miniaturización que han sufrido los transistores ¿no será
más adecuado denominar a los microprocesadores como nanoprocesadores? Tal vez en algún futuro sea así. El
microprocesador es el encargado de ejecutar programas, desde el sistema operativo hasta las aplicaciones de
usuario. El mismo sólo ejecuta instrucciones programadas en lenguaje de bajo nivel, realizando operaciones
aritméticas y lógicas simples, tales como, sumar, restar, dividir, multiplicar, las lógicas binarias y accesos a
memoria. Esta unidad central de procesamiento está constituida, esencialmente, por registros, una unidad de
control, una unidad aritmético-lógica (ALU) y una unidad de cálculo en coma flotante (conocida antiguamente
como coprocesador matemático) [23]. Cuando los transistores comenzaron a reemplazar a los tubos de vacío
en casi la totalidad de los circuitos electrónicos, el material que se utilizaba para su fabricación era el Germanio. Luego de un tiempo se empezó a utilizar el silicio, cuyo precio, descripciones y abundancia lo hacían
más interesante. El silicio es uno de los elementos más abundantes en el planeta Tierra (representa el 27,7%
de la masa terrestre) detrás del oxígeno [24]. Su uso en la electrónica se debe a sus propiedades de semiconductor. Así que, dependiendo de qué impurezas se le añadan puede funcionar como “aislador” o como un
“conductor”. En los últimos 40 años, este material ha sido el motor que induce la revolución microelectrónica.
Con este material se han construido innumerables generaciones de circuitos integrados y microprocesadores,
cada una reduciendo el tamaño de los transistores que lo componen, motorizando la miniaturización. Como
comparación de tamaños, se puede decir que actualmente en la superficie de un glóbulo rojo podríamos ubicar
casi 400 transistores. Otra comparación válida es que en la cabeza de un alfiler se pueden ubicar unos 30 millones de ellos.
3.1 Técnicas de fabricación
Pero ¿cómo esposible fabricar algo tan pequeño? El proceso de elaboración de un procesador es demasiado
complejo. Todo empieza con un buen puñado de arena (compuesta básicamente de silicio), con la que se
fabrica un monocristal de unos 20 × 150 centímetros. Para ello, se funde el material en cuestión a elevadas
temperaturas de aproximadamente 1370 °C y muy lentamente (con velocidades desde 10 hasta 40 mm por
hora) se va constituyendo el cristal. Este proceso se denomina método Czochralsky y permite fabricar lingotes
monocristalinos de silicio de algunos metros de largo y alrededor de una decena de centímetros de diámetro
con muy buen grado de pureza [25].
Nanotecnólogos por un día 2012
De este monocristal, de cientos de kilos de peso, se cortan los extremos y la superficie exterior, de tal
forma que se obtiene un cilindro puro y casi perfecto. Luego, el cilindro se corta en obleas (wafers, en inglés)
de menos de un milímetro de grosor, manipulando una sierra de diamante. De cada cilindro se logran extraer
miles de obleas, y de cada oblea se producirán cientos de microprocesadores.
Estas obleas son pulidas para lograr una superficie perfectamente plana. Pasan por un proceso térmico
llamado “recocido” (“annealing”, en inglés), que consiste en someterlas a un calentamiento extremo para remover cualquier defecto cristalino o impurezas que puedan quedar en ellas. Luego de un control de calidad,
realizado mediante láseres capaces de detectar defectos menores a una milésima de micrón, se recubren con
una capa aislante formada por óxido de silicio transferido mediante deposición desde la fase vapor.
A partir de aquí, empieza lo que se conoce como el proceso del “dibujado” de los transistores que
conformarán a cada microprocesador. Este proceso se hace del mismo modo que se hacen los diseños sobre
una camiseta. Los diseños que ilustran las camisetas se producen en serie creando primero una plantilla con
el dibujo del patrón que se desea realizar. Luego se coloca la plantilla sobre la tela y se aplica pintura con un
spray. Solo donde están los orificios de la plantilla pasará la pintura a la tela. Luego se retira la plantilla, y
queda en la camiseta una copia perfecta del dibujo. De manera similar, se crea primero una plantilla que contiene los intrincados dibujos de millones de transistores y luego ésta se aplica sobre las obleas de silicio [4].
A pesar de ser demasiado complejo y preciso, primordialmente consiste en la “impresión” de repetidas
máscaras sobre la oblea, que son endurecidas mediante luz ultravioleta y atacadas por ácidos, con la finalidad
de remover las zonas no cubiertas por la impresión. Este proceso se denomina generalmente fotolitografía
[26]. Cada capa que se “pinta” sobre la oblea consiste en la eliminación de algunas partes de la superficie, o
la preparación para que reciba el aporte de impurezas atómicas (de aluminio o cobre, por ejemplo) destinados
a formar parte de los transistores que conformarán el microprocesador. Dado el pequeñísimo tamaño de los
transistores “dibujados”, no puede utilizarse luz visible en este proceso. Ciertamente, la longitud de onda de
la luz visible (entre 380 a 780 nanómetros) es demasiado grande. Los modernos procesadores de seis núcleos
de Intel están fabricados con un proceso de 22 nanómetros, empleando radiación ultravioleta de longitud de
onda más pequeña.
Un transistor fabricado con tecnología de 45 nanómetros tiene un ancho semejante a unos 200 átomos
de silicio. Esto da una idea de la precisión incondicional que se requiere al instante de emplear cada una de las
máscaras utilizadas durante la fabricación. Una vez que la oblea ha pasado por todo el proceso litográfico, la
misma tiene “grabados” en su superficie varios cientos de microprocesadores, cuya integridad es corroborada
antes de cortarlos. Se trata de un proceso obviamente automatizado, y que termina con una oblea que tiene
grabadas algunas marcas en el lugar en el que se encuentra algún microprocesador defectuoso.
La mayoría de los errores aparecen en los bordes de la oblea, dando como resultado chips capaces de
funcionar a velocidades menores que los del centro de la oblea. Luego, la oblea es cortada y cada chip individualizado. En esta etapa del proceso el microprocesador es una pequeña placa de unos pocos milímetros cuadrados, sin pines ni capsula protectora.Todo este trabajo sobre las obleas de silicio se realiza en “cleanrooms”
(ambientes limpios), con métodos de ventilación y filtrado iónico de precisión, ya una pequeña partícula de
polvo puede malograr un procesador completo. Los trabajadores de estas plantas emplean trajes estériles para
evitar que restos de piel, polvo o pelo se desprendan de sus cuerpos.
Cada una de estas plaquitas obtenidas será dotada de una cápsula protectora plástica (en algunos casos
pueden ser cerámicas) y conectada a los cientos de pines metálicos que le permitirán conectarse eléctricamente
con el mundo exterior. Estas conexiones se realizan utilizando delgadísimos alambres, generalmente de oro.
De ser necesario, la cápsula es dotada de un pequeño disipador térmico de metal, que servirá para optimizar la
transferencia de calor desde el interior del chip hacia el disipador principal. El resultado final es un microprocesador como el que equipa nuestra computadora personal.
Nanotecnólogos por un día 2012
Todo el proceso detallado tarda entre dos o tres meses en ser finalizado, y de cada cristal de silicio extra
puro se logran decenas de miles de microprocesadores. La diferencia astronómica entre el costo de la materia
prima (básicamente arena) y el producto terminado (microprocesadores de cientos de dólares cada uno) se
explica en el costo del proceso y la inversión que simboliza la construcción de la planta en que se lleva a cabo.
Este proceso de fabricación se suele denominar microfabricación y se esquematiza en la Figura 7 [27].
Dada la enorme cantidad de posibles variaciones del proceso sólo se muestran ciertos pasos generales de la
fabricación y su secuencia. Cada paso de eliminación de material involucra el cubrimiento de la estructura con
resina fotosensible y la subsecuente iluminación con luz de longitud de onda adecuada según las dimensiones
deseadas del dispositivo. Un ataque química de la resina luego de ser iluminada permite remover selectivamente parte de material. La correcta combinación de cada uno de estos pasos da como resultado un microprocesador convencional. Infinidad de chips se fabrican con esta técnica.
Figura 7 – Esquema simplificado de la secuencia de pasos necesaria para la fabricación de microchips [27].
3.2 Límite cuántico
Con la actual tecnología se pueden fabricar pistas conductoras de 0,18 micrones, esto es 500 veces
más delgadas que un cabello humano. Como comparación, vale destacar que el radio de un átomo es sólo unas
1000 veces menor. Las capas de aislante que las dividen pueden tener un espesor de cuatro o cinco átomos.
Hoy en día, la meta es poder crear pistas conductoras de 0,10 micras, con lo que los transistores poseerían tan
solo 100 átomos cada uno. Al producir dispositivos de dimensiones tan pequeñas, las leyes de la física clásica
comienzan a perder validez y es donde la física cuántica entra en acción. Al trabajar con esas dimensiones, en
las que habrá un número reducido de electrones, la física cuántica regirá los procesos que comienzan a ser de-
Nanotecnólogos por un día 2012
scriptos en términos probabilísticos. Esta es la razón por la que la miniaturización de los transistores, tal como
los conocemos hasta hoy, está llegando a su fin para dar lugar a nuevas tecnologías como la de los transistores
de nanotubos de carbono o de grafeno que se mostraron anteriormente [28].
Una razón por la que la ley de Moore ha incrementado incesantemente la potencia de los chips es que
la luz ultravioleta puede ajustarse para que su longitud de onda sea cada vez menor, con lo que es posible
esculpir transistores cada vez más diminutos en las obleas de silicio. Puesto que la luz ultravioleta tiene una
longitud de onda que puede reducirse hasta los 10 nm, el transistor más pequeño que puede esculpirse tiene un
diámetro de unos 30 átomos.Pero este proceso no puede continuar de manera indefinida. En algún momento
será físicamente imposible esculpir de esta manera transistores que sean del tamaño de los átomos. En primer
lugar, el calor generado por chips muy potentes podría llegar a fundirlos. Una solución ingenua es apilar las
obleas una encima de otra, creando un chip cúbico. Esto aumentaría la capacidad de procesamiento, pero a
expensas de generar más calor. El problema es sencillo: en un chip cúbico no hay superficie suficiente para enfriarlo. En general, si hacemos circular agua o aire frío por un chip caliente, el efecto de enfriamiento es mayor
cuando hay más superficie de contacto con el chip. Ahora bien, si utilizamos un chip cúbico la superficie no
es suficiente. Por ejemplo, si pudiéramos multiplicar por dos el tamaño de un chip cúbico, el calor generado
aumentaría multiplicándose por ocho (ya que el cubo contendría ocho veces más componentes eléctricos),
pero su superficie se multiplicaría solo por cuatro. Esto significa que el calor generado en un chip cúbico crece
más rápido que las posibilidades de refrigerarlo. Cuanto mayor sea el tamaño del chip cúbico, más difícil será
enfriarlo. Por lo tanto, los chips cúbicos aportarán solo una solución parcial y temporal al problema [4].
Algunos han sugerido que se puede utilizar simplemente rayos X en lugar de luz ultravioleta para
grabar los circuitos. En principio, esto podría dar un buen resultado, ya que los rayos X pueden tener una
longitud de onda 100 veces menor que la de la luz ultravioleta. Pero hay un inconveniente. Al sustituir la luz
ultravioleta por los rayos X, aumenta también la energía del rayo multiplicándose aproximadamente por 100.
Esto significa que grabar mediante rayos X puede destruir la oblea. La litografía mediante rayos X puede compararse con el intento de un artista de crear una delicada escultura utilizando un soplete. La litografía mediante
rayos X ha de controlarse muy cuidadosamente, por lo que esta técnica no sería más que una solución a corto
plazo [4].
3.3 Últimas tendencias
Actualmente Intel, que lidera el mercado, se encuentra comercializando la arquitectura Ivy Bridge con
tecnología de fabricación de 22 nm y transistores de tipo tri-gate. El próximo año, aproximadamente entre
marzo y junio, desembarcarán procesadores con la nueva arquitectura llamada Haswell. Los sucesores serán
[29]:
• Broadwell: será el nombre clave del sucesor de Haswell, utilizando un proceso de fabricación
de 14 nm. Esta generación se espera para el año 2014.
• Skylake: es el nombre para un procesador que será desarrollado por Intel como sucesora de la
arquitectura Haswell. Skylake usará un proceso de fabricación de 14 nm. No hay ningún comunicado oficial de estos procesadores pero se esperan para el 2015.
• Skymont: de acuerdo con Intel será el sucesor de Skylake con un proceso de fabricación de 10
nm. Se espera para el año 2016.
De parte de la empresa AMD, no hay información sobre las nuevas tecnologías, pero para el año 2013
se esperan procesadores con tecnología de fabricación de 18 nm [30].
Nanotecnólogos por un día 2012
4. Computación cuántica
La computación cuántica ha despertado el interés de científicos e investigadores en todo el mundo.
A medida que evoluciona la tecnología, se incrementa la escala de integración y caben más transistores en
el mismo lugar; así se elaboran microchips cada vez más diminutos, y cuanto más pequeño son, mayor es la
velocidad de procesamiento que alcanza el chip. Sin embargo, como ya se mencionó, no podemos hacer los
chips infinitamente pequeños. Hay un límite en el cual dejan de funcionar correctamente. Cuando la escala
nanométrica es muy pequeña, los electrones se escapan de los canales por donde deben circular. A esto se le
llama efecto túnel. En 1981, Paul Benioff propuso su teoría para aprovechar las leyes cuánticas en el entorno
de la computación. En vez de trabajar con voltajes eléctricos, se trabaja a nivel de cuanto [31].
La propuesta más ambiciosa es utilizar ordenadores cuánticos que calculen y procesen realmente con
los propios átomos. Afirman que los ordenadores cuánticos son los ordenadores definitivos, ya que el átomo es
la unidad más pequeña con la que se puede calcular. Un átomo es como una peonza que gira. Normalmente se
puede almacenar información digital en las peonzas asignando el número 0 si la peonza gira hacia arriba (espín
hacia arriba), o el 1 si la peonza gira hacia abajo (espín hacia abajo). Si le damos un vuelco a la peonza que gira,
habremos convertido un 0 en un 1, con lo que habremos realizado una operación. Sin embargo, en el extraño
mundo de lo cuántico, un átomo gira, en cierto sentido, hacia arriba y hacia debajo de forma simultánea, ya
que en el mundo cuántico estar en varios lugares a la vez es cosa corriente. Por consiguiente, un átomo puede
contener mucha más información que sólo un 0 o un 1. Puede expresar una mezcla de ceros y unos. Así, los
ordenadores cuánticos utilizan la unidad de información llamada “qubits” en vez de los tradicionales bits. Por
ejemplo, el átomo puede estar girando espín hacia arriba en un 25%, y con espín hacia abajo en un 75%. De
esta manera, un átomo que gira puede almacenar una cantidad de información muchísimo mayor que un solo
bit. Por ejemplo, un ordenador digital actual puede tardar un siglo en factorizar un número de 100 dígitos. Sin
embargo, un ordenador cuántico es tan potente que, en principio, puede descifrar sin esfuerzo este problema.
Un ordenador cuántico supera claramente a un ordenador digital a la hora de realizar estas tareas enormes [4].
Los ordenadores cuánticos no son ciencia ficción, porque hoy en día ya existen en la realidad. De hecho, Michio Kaku dijo “tuve ocasión de ver por mí mismo un ordenador cuántico cuando visité el laboratorio
del MIT, donde trabaja Seth Lloyd, uno de los pioneros en este campo. Su laboratorio está lleno de ordenadores, bombas de vacío y sensores, pero el núcleo de su experimento es un aparato que se parece a un escáner
de IRM, solo que de mucho menor tamaño. Como el aparato de IRM, este artilugio tiene dos grandes bobinas
de cable que crean un campo magnético uniforme en el espacio que queda libre entre ellas. En este campo
magnético uniforme Lloyd coloca el material de la muestra. Los átomos que hay dentro de esta se alimentan,
como peonzas que giran. Si el átomo apunta hacia arriba, corresponde a un 0. Si señala hacia abajo, corresponde a un 1. A continuación, Loyd envía un pulso electromagnético hacia la muestra, con lo que cambia el
alineamiento de los átomos. Algunos de estos dan un vuelco, y así un 1 se convierte en un 0. De esta manera,
el aparato ha realizado un cálculo” [4].
Entonces, ¿por qué no tenemos sobre nuestras mesas ordenadores cuánticos que resuelvan los misterios del universo? Lloyd reconoció que el verdadero problema que obstaculiza la investigación en los ordenadores cuánticos son las interferencias procedentes del mundo exterior, que destruyen las delicadas propiedades de estos átomos.Cuando los átomos son “coherentes” y vibran en fase unos con otros, la más mínima
interferencia que les llegue del mundo exterior puede arruinar este delicado equilibrio y hacer que los átomos
pierdan su “coherencia”, dejando de vibrar al unísono. Incluso el paso de un rayo cósmico o el retumbe de un
camión fuera del laboratorio pueden destruir el delicado alineamiento giratorio fuera del laboratorio pueden
destruir el delicado alineamiento giratorio de los átomos y arruinar los cálculos. El problema de la pérdida
de coherencia o “decoherencia cuántica” es un único obstáculo de dificultad extrema para crear ordenadores
cuánticos. Quien logre resolver este problema, no solo ganará un premio Nobel, sino que se convertirá en la
persona más rica del planeta [4].
Está claro que crear ordenadores cuánticos a partir de átomos individuales coherentes es un proceso
Nanotecnólogos por un día 2012
arduo, porque esos átomos pierden la coherencia y dejan de vibrar en fase rápidamente. Hasta ahora, el cálculo
más complejo realizado por un ordenador cuántico en todo el mundo es 3 × 5= 15. Aunque esto no parezca
gran cosa, recordemos que el cálculo se hizo con átomos individuales [4].
Hay además otra complicación extraña que procede de la teoría cuántica y se basa, una vez más, en
el principio de incertidumbre. Todos los cálculos realizados con un ordenador cuántico son inciertos, por lo
que habría que repetir el experimento muchas veces. Por consiguiente, 2 + 2= 4, al menos algunas veces. Si
se repite el cálculo 2 + 2 cierto número de veces, la respuesta final da como media 4. Incluso la aritmética se
convierte en algo difuso en un ordenador cuántico. Nadie sabe cuándo se podrá resolver el problema de la
decoherencia. Vint Cerf, uno de los creadores iniciales de internet, predice que “en 2050, seguramente habremos encontrado la manera de realizar cálculos cuánticos a temperatura ambiente” [4].
Hay que destacar también que, como la recompensa es tan elevada, los científicos han explorado toda una
variedad de diseños que actualmente compiten entre sí son los siguientes [4]:
• Ordenadores ópticos: estos ordenadores calculan con haces luminosos en vez de electrones. Dado que
los haces de luz pueden pasar los unos a través de los otros, los ordenadores ópticos tienen la ventaja
de que pueden ser cúbicos y sin cables. Además, es posible fabricar láseres utilizando las mismas técnicas litográficas que en los transistores ordinarios, por lo que en teoría se pueden meter millones de
láseres en un chip.
• Ordenadores de puntos cuánticos: los semiconductores utilizados en los chips pueden grabarse en
puntos diminutos, tan pequeños que son una colección de quizá 100 átomos. Estos átomos pueden
empezar entonces a vibrar al unísono. En 2009 se hizo el punto cuántico más pequeño del mundo con
un solo electrón. Estos puntos cuánticos han demostrado ya su utilidad en los diodos emisores de luz
y en los monitores de los ordenadores. En el futuro, si estos puntos cuánticos se organizan adecuadamente, podrían incluso servir para la creación de un ordenador cuántico.
• Ordenadores de ADN: en 1994, en la Universidad del Sur de California, se creó el primer ordenador
hecho de moléculas de ADN. Dado a que un hilo de ADN codifica información en los aminoácidos
representados por las letras A (adenina),T (timina), C (citosina) y G (guanina), en vez de codificarla
con ceros y unos, el ADN puede considerarse como una cinta magnética corriente de ordenador, salvo
por el hecho de que puede almacenar más información. Del mismo modo que un ordenador puede
manipular y reordenar un gran número digital, también pueden realizarse manipulaciones análogas
mezclando tubos de fluidos que contienen ADN, ya que este puede cortarse y empalmarse de diversas
maneras. Aunque el proceso es lento, el hecho de que haya tantos billones de moléculas de ADN actuando simultáneamente hace que un ordenador de ADN pueda resolver determinados cálculos de una
manera más ventajosa que un ordenador digital. Aunque un ordenador digital tiene muchas ventajas
y puede colocarse dentro de un teléfono móvil, los ordenadores de ADN son más engorrosos porque
requieren hacer mezclas con tubos de líquido que contienen ADN.
5. Conclusión
En conclusión, la miniaturización de los transistores ha permitido a lo largo de la segunda mitad del
siglo XX y principios del XXI un incremento monstruoso de la potencia de cálculo y del número de transistores dentro de los microchips. Esto ha sido posible gracias a los avance tecnológicos en el ámbito de la
manipulación de la materia a escala nanométrica. En la actualidad nos encontramos en un momento bisagra,
en el que los tamaños de los transistores están alcanzando escalas de tamaños en el dominio molecular, y no
tardará mucho en llegar a la escala atómica. Los problemas prácticos de las leyes de la física que gobiernan el
reino atómico y subatómico están siendo atacados por los científicos para encontrar las maneras de continuar
con el proceso de miniaturización, que seguirá siendo el motor de los avances tecnológicos a escala global. Por
La nanotecnología
Alumno: Dante Nunziata
Escuela Técnica Ing. A Huergo
Capital Federal
Nanotecnólogos por un día 2012
Prologo
La nanotecnología es una ciencia reciente aparición la cual dada sus muchas posibilidades de aplicación
cambiara las bases de muchas disciplinas como por ejemplo: la electrónica, computación, medicina, la construcción, materiales mas resistentes y livianos para vehículos terrestres, acuáticos, aéreos o incluso espaciales, mejores fuentes de energía, armamento…
Pronto viviremos en un mundo donde lo más pequeño será la base para lo más grande.
¿Pero que es la nanotecnología?
Introducción
El objetivo de esta monografía es explicar qué es exactamente la Nanotecnología y presentar de manera concisa los conceptos fundamentales de esta materia para que las personas que desconozcan este campo tengan
una idea general de las perspectivas y las cuestiones que estarán presentes por sí mismas en los próximos
años
La nanotecnología:
La nanotecnología es un campo de las ciencias aplicadas dedicado al control y manipulación de la materia a
una escala menor que un micrómetro, es decir, a nivel de átomos y moléculas (nanomateriales). Lo más habitual es que tal manipulación se produzca en un rango de entre uno y cien nanómetros.
¿Que es un Nano?
Nano es un prefijo griego que indica una medida (10-9 = 0,000 000 001), no un objeto; de manera que la nanotecnología se caracteriza por ser un campo esencialmente multidisciplinar, y cohesionado exclusivamente
por la escala de la materia con la que trabaja.
Definición
Entonces la definición apropiada seria:
La nanotecnología comprende el estudio, diseño, creación, síntesis, manipulación y aplicación de materiales, aparatos y sistemas funcionales a través del control de la materia a nanoescala, y la explotación de
fenómenos y propiedades de la materia a nanoescala. Cuando se manipula la materia a escala tan minúscula,
presenta fenómenos y propiedades totalmente nuevas. Por lo tanto, los científicos utilizan la nanotecnología
para crear materiales, aparatos y sistemas novedosos y poco costosos con propiedades únicas.
Historia
En una conferencia impartida en 1959 por uno de los grandes físicos del siglo pasado, el maravilloso teórico
y divulgador Richard Feynman, ya predijo que «había un montón de espacio al fondo» (el título original
de la conferencia fue «There’s plenty of room at the bottom”) y auguraba una gran cantidad de nuevos des-
Nanotecnólogos por un día 2012
cubrimientos si se pudiera fabricar materiales de dimensiones atómicas o moleculares. Hubo que esperar
varios años para que el avance en las técnicas experimentales, culminado en los años 80 con la aparición de
la Microscopía Túnel de Barrido (STM) o de Fuerza Atómica (AFM), hiciera posible primero observar los
materiales a escala atómica y, después, manipular átomos individuales
A continuación se muestra una breve cronología sobre la nanotecnología
o
Los años 40: Von Neuman estudia la posibilidad de crear sistemas que se auto-reproducen como una
forma de reducir costes.
o
1959: Richard Feynmann habla por primera vez en una conferencia sobre el futuro de la investigación
científica: “A mi modo de ver, los principios de la Física no se pronuncian en contra de la posibilidad
de maniobrar las cosas átomo por átomo”.
o
1966: Se realiza la película “Viaje alucinante” que cuenta la travesía de unos científicos a través
del cuerpo humano. Los científicos reducen su tamaño al de una partícula y se introducen en el interior
del cuerpo de un investigador para destrozar el tumor que le está matando. Por primera ve en la historia, se considera esto como una verdadera posibilidad científica. La película es un gran éxito.
o
1982 Gerd Binning y Heinrich Rohrer, descubrieron el Microscopio de Efecto Túnel (Premio Nobel
1986).
Algunos usos presentes y futuros
Una nanomáquina de escribir
En 1989, unos físicos del Centro de Investigación de Almaden de la empresa IBM, ubicado en San José,
California, sorprendieron al mundo científico al usar un microscopio de sonda vibrátil para mover unas serie
de átomos de xenón sobre una superficie de níquel, escribiendo una versión microscópica del logo de IBM.
Aunque el experimento demostró que se podían construir cosas a nanoescala, no dejaba de ser una experiencia exótica y única, que requería un microscopio fabricado a propósito, una habitación especial a prueba
de vibraciones y un ambiente de temperaturas alrededor de los -270 grados centígrados, sólo unos grados
por encima del cero absoluto.
Pero sólo diez años después se ha creado el AFM, sigla de Atomic Force Microscope. Este instrumento está
cambiando la manera en que los científicos interactúan con la materia en pequeña escala.
Dentro de la cámara del AFM, de un modo invisible al ojo normal, los extremos de unas
delgadísimas agujas se introducen en un substrato de moléculas orgánicas, luego estas agujas, afiladas hasta
tener sólo unos átomos de ancho en la punta, escriben palabras de sólo una decena de nanómetros de ancho.
El proceso funciona basándose en que las moléculas orgánicas, tal como la tinta en una lapicera fuente,
fluyen desde el extremo de la aguja a la superficie de escritura, hecha de oro. Incluso tienen la posibilidad de
usar distinto tipos de “tintas” y de cambiarlas en un momento. Para tener una idea de la escala de la escritura
resultante digamos que, con la ampliación óptica que se necesita para leer esas letras, una línea escrita por
un bolígrafo se vería de más de un kilómetro de ancho.
Para dar un poco de espectáculo, que para los yanquis nunca viene mal, usaron un AFM provisto con un
conjunto de ocho agujas para escribir en menos de 10 minutos una página completa de un famoso texto que
Nanotecnólogos por un día 2012
el físico Richard Feynman concibió en 1960, en un impresionante y certero acto de predicción, sobre las
posibilidades de la nanotecnología.
Y todo eso a temperatura ambiente.
Esa fue sólo una prueba. El sistema no está pensado para escribir, por lo menos no en el sentido convencional que le damos a la palabra. Este sistema de litografía puede convertirse en una rápida solución para
manufacturar nanocomponentes, desde microelectrónica a chips ADN (usados en genética) más rápidos y
densos. Puede ser en la manera de producir nanoestructuras de manera masiva. Y puede ser el primer paso
en la evolución de las herramientas que se necesitarán para fabricar nanomáquinas que luego sean capaces
de hacer copias de sí mismas y construir otras: los nano robots.
Los nano robots: Los nano robots ya han sido explotados en la CF y las aplicaciones propuestas pasan por
ítems difíciles de imaginar unas décadas atrás: Mantenimiento del cuerpo por dentro, reparación y recableado de tejido cerebral a control remoto, reparaciones corporales (arterias, cristalino, oído, órganos internos,
tumores) sin necesidad de operación.
La tecnología aún está lejos de producirlos, pero, como en el campo de la Inteligencia Artificial, es una cuestión tan complicada y tan difícil que se avanza en diversos frentes. Una de la áreas
sería la tratada en el bloque anterior: las herramientas; ya dimos una idea de cómo es una de las propuestas
más concretas. Pero con carrocería solamente no se puede funcionar, también se requiere control, y aquí
entra un mundo diferente al de los sensores nanoscópicos, las matrices de tamaños de nanómetros y las
moléculas gigantes: la computación a nivel de la nanotecnología. Hace años que se diseñan compuertas lógicas mecánicas compuestas de unos pocos átomos y parecería que sólo se esperan las herramientas necesarias
para construirlas. El panorama no es tan simple, pero existen innumerables laboratorios trabajando en la “inteligencia” nanométrica. Y ya hay algunos anuncios.
Memoria: En un laboratorio de IBM en Zurich, uno de los que ayudaron en la invención de aquel microscopio AFM de 1986, se trabaja en la miniaturización a nivel nanómetro del registro de datos. El sistema de
almacenamiento se basa en un conjunto de 1024 agujas de AFM en una matriz cuadrada que pueden escribir
bits de información de no más de 50 nanómetros de diámetro. El mismo conjunto es capaz luego de leer la
información e incluso reescribirla.
La capacidad de guardar información a esa escala es una noticia excitante para el mercado, pues multiplica inmensamente la cantidad de información que se puede almacenar en
un área determinada. El mejor sistema actual de registro, basado en la memoria magnética, puede guardar
alrededor de dos gigabits por centímetro cuadrado; los físicos creen que el límite físico de la capacidad este
sistema —no alcanzado aún— es de alrededor de 12 gigabits por centímetro cuadrado. El sistema de matriz
de agujas descripto más arriba, bautizado “Millipede” (Miriápodo, por tener mil patas), ofrece 35 gigabits
Nanotecnólogos por un día 2012
por centímetro cuadrado (y hasta 80 gigabits si se utiliza una aguja única) y es capaz de hacerlo a la velocidad de los artefactos magnéticos actuales. Con unidades de almacenamiento provistas de matrices gigantescas, con millones de agujas, se puede lograr un almacenamiento en el orden de los terabytes, algo así como
40 veces lo que está disponible hoy comercialmente.
Computadoras ubicuas: La miniaturización a nivel nanométrico apunta a la inserción de potentes computadoras en relojes de pulsera y teléfonos celulares que posean algo que hoy no tienen: un disco rígido. Se
supone que la tecnología del “Miriápodo” proveerá de discos rígidos de una capacidad en el orden de los gigabytes y de un tamaño de un centímetro cuadrado. Una de las cosas más importantes es que este nanodrive
de tecnología AFM requerirá mucho menos energía para su operación que los de tecnología magnética, un
factor extremadamente crítico en los productos portátiles.
Exploración espacial: sondas autorreproductoras: Si bien los logros en el rubro de la autoconstrucción son
mínimos, algunos laboratorios han demostrado, por ejemplo, que cubriendo la superficie de una placa de
base (hoy se usa oro) con una pegajosa capa de material orgánico se logra, bajo las condiciones apropiadas,
lograr que miles de estas placas se acomoden por sí solas para formar estructuras tridimensionales. Esto
parece caótico y anárquico por definición, sin embargo, en la Universidad de Harvard han logrado crear un
circuito electrónico relativamente funcional usando una técnica similar.
En la Universidad de Texas en Austin, un científico ha buscado, entre millones de proteínas, aquellas capaces de reconocer y unir diferentes tipos de
materiales inorgánicos. Se ha fundado ya una compañía, Semzyme, que busca crear una “biblioteca” de
bloques de construcción mediados por proteínas.
En la Universidad de California, en la Universidad Yale de Los Angeles, en la Universidad Rice y en Hewlett-Packard se avanza en el desarrollo de computadoras moleculares auto-construidas.
En la web se puede encontrar un proyecto de la NASA relativo a las sondas basadas en sistemas autorreproductores. Es un plan que se lanzó hace más de veinte años para lograr que, en lugar de enviar la totalidad del
equipamiento necesario para una exploración desde la Tierra, lo cual significa muchas toneladas puestas en
el espacio, se envíen solamente ciertos robots capaces de construir el resto del equipamiento a partir de la
materia prima extraída del lugar de aterrizaje. La NASA no pensó concretamente en nanotecnología, pero
los científicos de este área creen que será la única tecnología capaz de superar los problemas que presenta el
proyecto, especialmente el de conseguir, reconocer y extraer los materiales necesarios para la construcción.
Es un tema tan interesante que dejo su desarrollo para un próximo Tecno Núcleo.
Medicina: En la industria de medicamentos se busca lograr, por medio de nanotecnología, lo que logra en
cada instante nuestro cuerpo y el de millones de seres vivos sobre el mundo, pero en condiciones controladas
de laboratorio: la construcción átomo a átomo de moléculas complejas que hacen a las funciones primordiales de la vida (como la insulina, por dar un ejemplo). El logro de este objetivo sería un inmenso avance para
la medicina, pues simplificaría los procesos necesarios para obtener las complejas drogas que componen hoy
los medicamentos y pondría al alcance de la ciencia una enormidad de proyectos hoy imposibles.
Aprovechamiento máximo de la energía solar: En Texas, estado de EEUU donde tienen el problema de que
consumen gran cantidad de energía, proponen construir por medio de nanotecnología ciertos artefactos (que
no se describen) capaces de atrapar cada fotón que les llega y así lograr un aprovechamiento muy eficiente
de la energía solar. Estos colectores solares serían capaces de atrapar los fotones en unas nanoestructuras de
escala menor que la longitud de onda de la luz solar, que es de entre 400 y 1000 nanómetros. El sistema de
almacenaje funcionará como un capacitor (que almacena electrones), pero retendrá en su interior a los fotones.
Nanotecnólogos por un día 2012
IMPACTO EN LA VIDA MODERNA
Su impacto en la vida moderna aún parece una historia de ciencia ficción. Fármacos que trabajan a
nivel atómico, microchips capaces de realizar complejos análisis genéticos, generación de fuentes de
energía inagotables, construcción de edificios con microrrobots, combates de plagas contaminación a
escala molecular, son sólo algunos de los campos de investigación que se desarrollan con el uso de la
nanotecnología, conocimientoque permite manipular la materia a escala nanométrica, es decir, átomo por
átomo.
Considerado por la comunidad científica internacional como uno de los más “innovadores y
ambiciosos” proyectos de la ciencia moderna, la nanotecnología tiene su antecedente más remoto en un discurso pronunciado en diciembre de 1959 por el físico Richard Feynman, ganador del Premio Nobel, quien
estableció las bases de un nuevo campo científico.
Vinculado a la investigación científica desarrollada por las principales instituciones públicas de educación superior, la nanotecnología fomenta un modelo de colaboración interdisciplinario en campos como
la llamada nanomedicina -aplicación de técnicas que permitan el diseño de fármacos a nivel molecular-, la
nanobiología y el desarrollo de microconductores.
TIPOS DE NANOTECNOLOGÍA
Según la forma de trabajo la nanotecnología se divide en:
A) Top-down: Reducción de tamaño. Literalmente desde arriba (mayor) hasta abajo (menor). Los
mecanismos y las estructuras se miniaturizan a escala nanométrica. Este tipo de Nanotecnología ha sido
el más frecuente hasta la fecha, más concretamente en el ámbito de la electrónica donde predomina la
miniaturización.
B) Bottom-Up: Auto ensamblado. Literalmente desde abajo (menor) hasta arriba (mayor). Se comienza
con una estructura nanométrica como una molécula y mediante un proceso de montaje o auto ensamblado,
se crea un mecanismo mayor que el mecanismo con el que comenzamos. Este enfoque, que algunos
consideran como el único y “verdadero” enfoque nanotecnológico, ha de permitir que la materia pueda
controlarse de manera extremadamente precisa. De esta manera podremos liberarnos de las limitaciones de
la miniaturización, muy presentes en el campo de la electrónica.
El último paso para la Nanotecnología de auto montaje de dentro hacia fuera se denomina «Nanotecnología
molecular» o «fabricación molecular», y ha sido desarrollada por el investigador K. Eric Drexler. Se prevé
que las fábricas moleculares reales sean capaces de crear cualquier material mediante procesos de montaje
exponencial de átomos y moléculas, controlados con precisión. Cuando alguien se da cuenta de que la totalidad de nuestro entorno perceptivo está construida mediante un limitado alfabeto de diferentes constituyentes
(átomos) y que este alfabeto da lugar a creaciones tan diversas como el agua, los diamantes o los huesos, es
fácil imaginar el potencial casi ilimitado que ofrece el montaje molecular.
Algunos partidarios de una visión más conservadora de la Nanotecnología ponen en duda la viabilidad de
la fabricación molecular y de este modo tienen una visión contradictoria a largo plazo con respecto a la teoría de Eric Drexler, el defensor más conocido de la teoría de la fabricación molecular. Es importante tener en
cuenta de alguna manera esta nota
Nanotecnólogos por un día 2012
discordante, porque la mayoría de los investigadores involucrados piensan que la madurez de la Nanotecnología es una evolución positiva y que la Nanotecnología mejorará de manera significativa la calidad de la
vida en el planeta (y en el espacio) de la población mundial.
Según el campo en el que se trabaja la nanotecnología se divide en:
Nanotecnología Húmeda
•
Esta tecnología se basa en sistemas biológicos que existen en un entorno acuoso incluyendo material
genético, membranas, encimas y otros componentes celulares.
•
También se basan en organismos vivientes cuyas formas, funciones y evolución, son gobernados por las
interacciones de estructuras de escalas nanométricas. Nanotecnología Seca
•
Es la tecnología que se dedica a la fabricación de estructuras en carbón, Silicio, materiales inorgánicos, metales y semiconductores.
•
También está presente en la electrónica, magnetismo y dispositivos ópticos.
•
Auto ensamblaje controlado por computadora.
•
Es también confundida con la microminiaturización.
Nanotecnología Seca y Humeda
•
Las ultimas propuestas tienden a usar una combinación de la nanotecnología húmeda y la nanotecnología
seca
•
Una cadena de ADN se programa para forzar moléculas en áreas muy específicas dejando que uniones
covalentes se formen sólo en áreas muy específicas.
•
Las formas resultantes se pueden manipulas para permitir el control posicional y la fabricación de nanoestructuras.
Nanotecnología computacional
•
Con esta rama se puede trabajar en el modelado y simulación de estructuras complejas de escala nanométrica.
•
Se puede manipular átomos utilizando los nanomanipuladores controlados por computadoras.
•
9/17
Grandes avances de la nanotecnología
Nanodiamantes
El diamante, el material natural más duro y resistente, se espera que con el uso de la nanotecnología amplíe
y mejore sus aplicaciones. Así los nanodiamantes podrían conducir a la detención de contaminantes bacterianos en agua y alimentos; y a producir nanodispositivos electrónicos, que como en el caso de los nanotubos
del carbón que están siendo desarrollándoos y estudiados, presenten mayores ventajas que los actuales en
silicio.
Es decir,
será posible hacer diamantes o las películas de diamante en diferentes formas y tamaños, así como también
Nanotecnólogos por un día 2012
mejorar su costo. La nanotecnología ha permitido sintetizar películas de nanodiamantes con las características físicas, químicas y biológicas mejoradas para ser aplicado en áreas tecnológicas muy diferentes.9-12
Estos nanodiamantes crecidos en diversos substratos tienen una capacidad particular para el estudio electroquímico ofreciendo alta sensibilidad, buena precisión y alta estabilidad en comparación con otros materiales
como el carbón vítreo y el platino.
Además de las características naturales del diamante, tales como alta conductividad térmica, alta dureza
e inercia química también presenta un amplio intervalo de potencial electroquímico en medios acuosos
y no acuosos, capacitancia muy baja y estabilidad electroquímica extrema. Por otra parte, se desarrollan
nuevas superficies que permiten el fijar compuestos como proteínas o moléculas más simples que permitirán
obtener mayor afinidad a líquidos específicos para su estudio mejorando las propiedades biológicas de
dichos materiales. Mientras que todas estas características promueven nuevas aplicaciones en campos como
el electroanálisis, otras incluyen el uso de estas películas en la fabricación de los revestimientos duros que
poseen coeficiente friccional bajo y características excelentes de desgaste,13 dispositivos emisores de electrones11 y cubiertas resistentes a altos impactos.14, 15 La nanocristalinidad de estas películas es el resultado
de un nuevo tipo de crecimiento y mecanismos de nucleación, dando por resultado un nivel de nucleación
alrededor de 1,010 cm-2s-1; gracias al uso de diversas técnicas de deposición, por ejemplo, del plasma asistido por microondas, descarga a baja presión, plasma inducido por láser, filamento caliente y otras técnicas.6
Típicamente, la mezcla gaseosa usada para la síntesis del diamante microcristalino o nanocristalinos es
formada de hidrógeno y metano.1, 2 Sin embargo, en el logro de nano-películas, se han utilizado otras composiciones formadas de argón, hidrógeno y metano16, 17 o de helio, hidrógeno y metano;9, 10 obteniendo
nanodiamantes con características específicas y con nuevas propiedades; como una mayor conductividad
eléctrica, conductividad térmica y mayor área superficial potencialmente utilizable.
Algunos ejemplos de nanodiamantes pueden ser observados en las figuras 1, 2, 3 y 4; que son fotos
Fig. 1. A) Foto de un soporte carbonoso realizada mediante
Microscopía electrónica de barrido (conocido por sus siglas en inglés, SEM.
Nanotecnólogos por un día 2012
Fig. 2. B) Foto del soporte de carbono con un depósito de nanodiamantes realizada mediante Microscopía
Electrónica de barrido. El depósito de nanodiamantes se realizó con un nivel de drogado en boro de 1018
partes
por cm-3. Reimpreso de Diamond & Related Materials 14 (2005) 1673 – 1677, con permiso de Elsevier.18
Fig. 3. Imágenes de Microscopía electrónica de barrido del electrodo del diamante/soporte de carbono con
un
nivel de drogado con boro de 5000 ppm. (a) Morfología; (b) Sección representativa que evidencia la fibra
interna
Nanotubos de carbono
Definición
Los nanotubos de carbono se consideran una gran promesa debido a sus propiedades mecánicas excepcionalmente fuertes, su habilidad para transportar de modo eficaz altas densidades de corriente eléctrica, y otras
propiedades eléctricas y químicas.
Los nanotubos, que son aproximadamente 10.000 veces más delgados que un cabello humano, pueden fabricarse casi perfectamente rectos en cámaras especiales de plasma gaseoso. Son las fibras más fuertes que
se conocen. Un solo nanotubo perfecto es de 10 a 100 veces más fuerte que el acero por peso de unidad y
poseen propiedades eléctricas muy interesantes, conduciendo la corriente eléctrica cientos de veces más
eficazmente que los tradicionales cables de cobre
Nanotecnólogos por un día 2012
El grafito (sustancia utilizada en lápices) es formado por átomos de carbono estructurados en forma de panel.
Estas capas tipo-panel se colocan una encima de otra. Una sola capa de grafito es muy estable, fuerte y flexible. Dado que una capa de grafito es tan estable sola, se adhiere de forma débil a las capas al lado, Por esto
se utiliza en lápices - porque mientras se escribe, se caen pequeñas escamas de grafito.
En fibras de carbono, las capas individuales de grafito son mucho más grandes que en lápices, y forman una
estructura larga, ondulada y fina, tipo-espiral. Se pueden pegar estas fibras una a otras y formar así una sustancia muy fuerte, ligera (y cara) utilizada en aviones, raquetas de tenis, bicicletas de carrera etc.
Pero existe otra forma de estructurar las capas que produce un material más fuerte todavía, enrollando la estructura tipo-panel para que forme un tubo de grafito. Este tubo es un nanotubo de carbono.
Los nanotubos de carbono, además de ser tremendamente resistentes, poseen propiedades eléctricas interesantes. Una capa de grafito es un semi-metal. Esto quiere decir que tiene propiedades intermedias entre
semiconductores (como la silicona en microchips de ordenador, cuando los electrones se muevan con restricciones) y metales (como el cobre utilizado en cables cuando los electrones se mueven sin restricción).
Cuando se enrolla una capa de grafito en un nanotubo, además de tener que alinearse los átomos de carbono
alrededor de la circunferencia del tubo, también las funciones de onda estilo mecánica cuántica de los
electrones deben también ajustarse. Este ajuste restringe las clases de función de onda que puedan tener
los electrones, lo que a su vez afecta el movimiento de éstos. Dependiendo de la forma exacta en la que se
enrolla, el nanotubo pueda ser un semiconductor o un metal.
Aspectos innovadores de los nanotubos de carbono
El aspecto innovador de los materiales carbonosos de escala nanométrica, fullerenos y nanotubos, reside en
que reúnen las siguientes propiedades:
1. Habilidad para trabajar a escala molecular, átomo a átomo. Esto permite crear grandes estructuras con
fundamentalmente nueva organización molecular.
2. Son materiales de “base”, utilizados para la síntesis de nanoestructuras vía autoensamblado.
3. Propiedades y simetría únicas que determinan sus potenciales aplicaciones en campos que van desde la
electrónica, formación de composites,almacenamiento de energía, sensores o biomedicina.
Ventajas competitivas de los nanotubos de carbono
El campo de la Nanotecnología, y en particular el de los CNTs es un campo reciente, (fueron descubiertos en
1991), que puede ofrecer soluciones en campos multisectoriales y multidisciplinares y que tiene importantes
implicaciones en Ciencia y Tecnología.
Sus extraordinarias propiedades aseguran una revolución en los modos en que los materiales y productos
van a ser obtenidos, siendo la investigación a nanoescala de interés para industrias tales como: productoras
de cerámicas, metalurgia, láminas delgadas, electrónica, materiales magnéticos, dispositivos ópticos, catalizadores, almacenamiento de energía y biomedicina.
Nanotecnólogos por un día 2012
Nanomedicina
Generalidades
En la nanomedicina se han clasificado tres partes principales para poder atender a una persona: el nanodiagnóstico, la liberación controlada de fármacos y la medicina regenerativa.
Nanodiagnostico.- El objetivo del nanodiagnostico es de identificar la aparición de una enfermedad en sus
primeros estadios a nivel celular o molecular e idealmente al nivel de una sólo célula. Para posteriormente
dar un buen tratamiento en base al diagnostico que se le da.
Nanomateriales usados:
Nanobiosensores de reconocimiento celular o molecular
Liberación controlada de fármacos.- El objetivo de la liberación controlada de fármacos como su nombre
bien lo describe, es que una vez dada el diagnostico al paciente, se le suministre el medicamento de tal manera que este llegue a su destino y recién ahí empiece a reaccionar con la zona tratada. Para esto se utiliza tecnología para que en el transcurso del medicamento a través del organismo no se desperdicie el fármaco. Esto
ayudara al paciente ya que se le suministrara menor cantidad de drogas pero que esto no influya en la eficacia del mismo. Liberándose cuando este en la zona requerida y no antes.
Nanomateriales usados:
Nanotecnólogos por un día 2012
Diferentes nanosistemas empleados para la dosificación controlada de fármacos
Medicina regenerativa.- El objetivo principal de esta área es el de regenerar o reemplazar los tejidos u
órganos afectados, órganos mediante la aplicación de métodos procedentes de terapia génica, terapia celular,
dosificación de sustancias bioregenerativas e ingeniería tisular.
Nanomateriales usados:
Crecimiento de células de fibroblasto sobre un sustrato nanoestructurado,
Pero estos no solo son los únicos materiales para una terapia, ya que hay diversos nanomateriales que cada
dia se desarrolan, con el objetivo de darle a la humanidad una mejor calidad de vida.
Nanotubos en terapia genética
Gracias a los últimos avances científicos en la medicina, se han logrado identificar muchos de los genes relacionados con ciertas enfermedades, y actualmente investigaciones utilizan estos nuevos conocimientos para
desarrollar nuevos tratamientos para dichas enfermedades.
Se cree que se podría reemplazar genes defectuosos o ausentes a través de la implantación en células humanas desde el exterior del mismo tipo de gen. Este proceso no resulta sencillo porque, como el ADN no
puede traspasar las membranas células, se requiere la ayuda de un transportador. Ejemplos de este tipo de
transportador incluyen un virus, un lisosoma o péptido especial. Un equipo europeo de investigadores ha
desarrollado un nuevo método para introducir el ADN en células de mamíferos a través de nanotubos de
carbón modificados.
Los nanotubos de carbón son estructuras diminutas con forma de aguja y fabricados con átomos de carbón.
Para utilizar nanotubos como transportador de genes, era necesario modificarlos. El equipo de investigadores
Nanotecnólogos por un día 2012
logró enlazar al exterior de los nanotubos de carbón varias cadenas hechas de átomos de carbón y oxígeno cuyo lateral consiste en un grupo de aminos cargados positivamente (– NH3+). Esta pequeña alteración
hace que los nanotubos sean solubles. Además, los grupos cargados positivamente atraen a los
grupos de fosfatos cargados negativamente en el esqueleto del ADN. Al utilizar estas fuerzas electrostáticas
atractivas, los científicos lograron fijar de forma sólida plásmidos al exterior de de los nanotubos. Luego
contactaron los híbridos de nanotubo-ADN con su cultivo celular de células de mamífero.
El resultado fue que los nanotubos de carbón, junto con su cargamento de ADN, entraron dentro de la célula.
Imágenes de microscopio electrónico mostraron la forma en la que los nanotubos penetraron la membrana
celular.
Los nanotubos no dañan a las células porque, a diferencia de los anteriores sistemas de transporte genética,
no desestabilizan la membrana al penetrarla. Una vez dentro de la célula, los genes resultaron ser funcionales. El uso de nanotubos de carbón como transportador no se limitará al transplante de genes. Nuevos
avances científicos lograrán que sea posible el transporte de medicamentos y el desarrollo de otras nuevas
técnicas médicas.
Nanotubos en la medicina
Según los resultados de una investigación llevada a cabo por un equipo de científicos de la Universidad de
California, la fuerza, flexibilidad y poco peso de nanotubos de carbón hace que podrían servir como andamios capaces de suportar a los huesos y ayudar a víctimas de osteoporosis y huesos rotos.
Los científicos describen su descubrimiento en un artículo publicado por la revista Chemistry of Materials de la American Chemical Society. Los resultados podrían suponer mayor flexibilidad y fuerza
de huesos artificiales y prótesis, además de avances en el tratamiento de la enfermedad osteoporosis.
Según el director de la revista, la investigación es importante porque indica un posible camino para
la aplicación de nanotubos de carbón en el tratamiento médico de huesos rotos.
Actualmente, las estructuras de hueso artificial se fabrican utilizando una gran variedad de materiales,
tales como polímeros o fibras de péptido, pero tienen la desventaja de carecer de fuerza y el riesgo de ser
rechazados por el cuerpo humano. Sin embargo, los nanotubos de carbón son excepcionalmente fuertes, y
existe menos posibilidad de rechazo por su carácter orgánico.
El tejido óseo es un compuesto natural de fibras de colágeno y hidroxiapatita cristalina, un mineral basado
en fosfato de calcio. Los investigadores han demostrado que los nanotubos de carbón pueden imitar la función de colágeno y actuar como un andamio para inducir el crecimiento de cristales de hidroxiapatita. Al tratar los nanotubos químicamente, es posible atraer iones de calcio lo que fomenta el proceso de cristalización
y mejora la biocompatibilidad de los nanotubos al aumentar su hidrosolubilidad.
Nanorobots en la medicina
Definición
Aunque todavía no se han fabricado nanorobots, existen múltiples diseños de éstos, incluso no pueden ser
del todo robots es decir pueden hasta ser modificaciones de células normales llamadas también células artificiales. Las características que éstos deben de cumplir, entre las que se pueden mencionar:
Nanotecnólogos por un día 2012
Tamaño
Como el nombre lo indica, los nanorobots deben de tener un tamaño sumamente pequeño, alrededor de 0.5-3
micras ( 1micra=1*10-6) más pequeños que los hematíes (alrededor de 8 micras.
Componentes
El tamaño de los engranes o los componentes que podría tener el nanorobot seria de 1-100 nanómetros
(1nm=1*10-9) y los materiales variaría de diamante como cubierta protectora, hasta elementos como nitrógeno, hidrógeno, oxigeno, fluoruro, silicón utilizados quizás para los engranes
Nanorobots inmunológicos
El sistema inmune de nuestro cuerpo es el encargado de proporcionar defensas contra agentes extraños o
nocivos para nuestro cuerpo, pero como todos los sistemas éste siempre no puede con todo. Entre estas
deficiencias se encuentra que muchas veces no responde (como es el caso con el SIDA) u tras veces sobre
responde (en el caso de enfermedades autoinmunitarias). Cabe decir que los nanorobots estarán diseñados
para no provocar una respuesta inmune, quizás las medidas que tienen estos bastaran para no ser detectados
por el sistema inmune. La solución que ofrece la nanomedicina es proporcionar dosis de nanorobots para
una enfermedad específica y la subsecuente reparación de los tejidos dañados, substituyendo en medida a las
propias defensas naturales del organismo.
Tratamientos contra el cáncer
Generalidades
El equipo de Nanospectra ha logrado desarrollar nanopartículas de cristal bañadas en oro capaces de invadir
un tumor y, cuando se calientan a través de un sistema remoto, capaces de destruirlo.
La clave del alto grado de efectividad de este nuevo avance se deriva de las dimensiones de las partículas.
Las nanopartículas tienen un diámetro de 150 nanómetros, que según el equipo de Nanoespectra, es el tamaño ideal para que puedan atravesar los vasos sanguíneos agujereados de un tumor. Esto podría permitir que
las partículas se acumulasen en el tumor más que en otros tejidos. Cuando se dirigen rayos de luz infrarrojos
a la localización del tumor, bien desde el exterior, o bien a través de
una sonda, las partículas absorben la luz y se calientan. El resultado es que los tumores se calientan más que
los otros tejidos alrededor, y se mueren.
En el primer estudio realizado por la empresa, los tumores en ratones injertados con las nanopartículas desaparecieron a los seis días después de aplicarles el tratamiento de los rayos infrarrojos.
Aunque la aplicación de rayos infrarrojos de luz ha sido utilizada en el campo de la medicina como una herramienta para mostrar imágenes, este nuevo avance científico supone la primera vez que se aplican rayos
infrarrojos para calentar a los tejidos.
En teoría, este nuevo avance tecnológico podría ayudar a eliminar aquellos tumores que caracterizan el cánc-
Nanotecnólogos por un día 2012
er de pecho, próstata y pulmón. La nanotecnología se sumaría así a otros tratamientos contra los cánceres
más convencionales como la quimioterapia y la radioterapia. Y, según el presidente de Nanospectra Donald
Payne, este nuevo método sería una “herramienta mucho menos tóxica para la caja de herramientas de los
cirujanos”.
En la afección de mamas
Investigadores de la Universidad de Cambridge identificaron cuatro genes responsables del desarrollo del
cáncer de mama. Un equipo de investigación sobre cáncer de esta universidad utilizó una moderna tecnología, llamada de micromatriz del ADN, que consiste en unos microchips capaces de estudiar la actividad
de cientos de genes al mismo tiempo.
Fuentes del equipo investigador informaron de que, antes de que se completara el mapa
genético humano, esta investigación habría requerido años, puesto que sólo se podía estudiar un gen al tiempo.
La identificación de los genes causantes del cáncer de mama es vital para encontrar nuevas y mejores formas
de combatir la enfermedad.
Los científicos examinaron tejidos de 53 tumores así como células de cáncer de mama creadas en laboratorio, y concentraron la búsqueda en un grupo concreto de genes del cromosoma ocho, implicados en el
desarrollo del cáncer. A continuación utilizaron la técnica de micromatriz del ADN para averiguar cuáles de
entre los centenares de genes parecían estar implicados de forma activa en el desarrollo de los tumores.
De este modo identificaron los genes FLJ14299, C8orf2, BRF2 y RAB11FIP.
Carlos Caldas, responsable de la investigación, explicó que el resultado «no es sólo un avance apasionante
para comprender cómo se desarrolla el cáncer de mama, sino que anuncia una nueva era revolucionaria en el
descubrimiento de genes relacionados con la enfermedad».
Nanotecnólogos por un día 2012
Conclusiones:
La nanotecnología es, evidentemente, por lo que pude mostrar, un área en la que se está aún dando los
primeros pasos. Pero al leer material de tecnología sabemos que cuando se empiece a saber a nivel de divulgación de proyectos como los descriptos en este artículo, suele haber muchos más en las sombras que no se
dan a conocer por razones de protección industrial, resguardo de ideas y razones estratégicas de estado. La
Ciencia Ficción nos ha mostrado la nanotecnología en las dos últimas décadas.
Grandes descubrimientos y mejoras implican la
coperación de muchas mentes.
Alumnos: Kessy Antonela, Matias Bravo Neron, Florencia Lageman
E.E.S.T N° 1
Coronel Vidal, Buenos Aires
Nanotecnólogos por un día 2012
Introducción
En este trabajo intentamos presentar los distintos avances que se dan gracias a la nanotecnología, el poder
contar con objetos más pequeños ayudando a la fabricación de nuevos artefactos tecnológicos y aportando
grandes adelantos en la medicina. Creando proyectos innovadores a futuro que a muchos países y compañías
sobretodo de informática, por ejemplo la marca HP, ponen en competencia invirtiendo mucho tiempo y
dinero sobre la misma. Mejorando rotundamente y cambiándolo en muchos casos, inventos recientes
mostrados en el trabajo, muestran lo positivo y las soluciones que brinda esta nueva ciencia. Nos basamos
en la historia de la nanotecnología orientada principalmente a la PC, ventajas y desventajas de la misma, los
posibles avances.
Definición Nanotecnología
La nanotecnología es el estudio, diseño, creación, síntesis, manipulación y aplicación de
materiales, aparatos y sistemas funcionales a través del control de la materia a nano escala la cual
demuestra fenómenos y propiedades totalmente nuevas. A nivel de átomos y moléculas Nano es un
prefijo griego que indica una medida de manera que la nanotecnología se caracteriza por ser un
campo esencialmente multidisciplinario, y cohesionado exclusivamente por la escala de la materia
con la que trabaja.
La nanotecnología promete soluciones vanguardistas y más eficientes para los problemas
ambientales, así como muchos otros enfrentados por la humanidad.
Nano = (10-9 = 0,000 000 001)
¿Cómo es posible trabajar con ellos?
Al cargar eléctricamente una punta a una escala similar con la que se trabaja es posible mover
átomos (Video). Se podría decir que la ciencia del siglo xx fue de los átomos, y la ciencia de este
siglo la nanotecnología.
¿Cómo surgió?
La idea de la nanotecnología surgió el 29 de diciembre 1959 por el ganador del premio nobel
Richard Feynman, fue el primero en hacer referencia a la nanotecnología en su discurso titulado “ en
el fondo ahí espacio de sobra”.
Materiales Nanotecnológicos
Las 3 materias nanotecnológicos más importantes son:
Nanocristal: material cristalino con nanopartículas que se usa en la electrónica óptica debido a su
gran capacidad de cambiar la longitud de la luz.
Nanotubo: tubo microscópico formado por capaz de grafito, diamante o felernus es utilizado para la
filtración partículas microscópicas de agua y petróleo.
Nanocable: Estructura con propiedades eléctricas u ópticas son usados como semiconductores,
diodos emisores de led y en la medicina se utiliza para la detección temprana del cáncer.
Nanotecnólogos por un día 2012
Átomo son las unidades mínimas de la q estamos hechos asique si se entiende el átomo se
entiendo todo .ya casi está controlado hoy en día se pueden manipular.
Definición nanociencia
La Nanociencia es un área emergente de la ciencia que se ocupa del estudio de los materiales
de muy pequeñas dimensiones. No puede denominarse química, física o biología dado que los
científicos de este campo están estudiando un campo dimensional muy pequeño para una mejor
comprensión del mundo que nos rodea.
Quiénes la impulsan
La nanotecnología fue impulsada, por la industria electrónica, que cree necesitar superar con
urgencia los límites de tamaño que le marca la utilización del silicio en los circuitos integrados.
Como la nanotecnología consiste en modificar los átomos para fabricar productos, son
muchas las ramas interesadas en su desarrollo: ciencia de los materiales, física, química, biología y
medicina. Además, se considera como una opción futura para el desarrollo de tecnología de ultra
precisión, electrónica, fármacos inteligentes, tecnologías biomédicas, energía y detección ambiental.
Adónde se puede llegar
El poder llegar a conocer, manipular y controlar la materia a escala nonométrica va a tener
innumerables repercusiones en la mayoría de las áreas científicas, económicas y sociales, de forma
que va a originar un verdadero cambio de escala en el devenir de la sociedad y del propio ser
humano.
Inventos:
 Teléfonos y ordenadores aún más potentes, asépticos, resistentes y precisos.
 Detectores médicos capaces de identificar tumores tan pequeños como 100 células.
 Anticuerpos programables que encuentren y destruyan bacterias, virus y
cáncer sin dañar el tejido sano.
 Protectores solares que absorban la radiación ultravioleta, en lugar de reflejarla.
 Tejidos que repelan completamente las manchas.
 Vendajes antimicrobianos.
 Frigoríficos, lavadoras y aires acondicionados antibacterianos y antifúngicos.1
Nanotubos
Uniendo varios de estos se podría hacen uno de los materiales más fuertes a grandes
temperaturas que exista. El problema por ahora es la unión de estos.
Tipos de nanotecnología
Construcción civilización de abajo a arriba (que vuelve al origen de la vida). De arriba abajo
son increíbles tecnologías pero todavía se puede reducir si controlamos las estructuras a escala
atómica y molecular (nada fácil).
Según la forma de trabajo la nanotecnología se divide en:
Nanotecnólogos por un día 2012
A) TOP-DOWN: Reducción de tamaño. Literalmente desde arriba hasta abajo. Este tipo de
Nanotecnología ha sido el más frecuente hasta la fecha, más concretamente en el ámbito de
la electrónica donde predomina la miniaturización.
B) BOTTOM-UP: Auto ensamblado. Literalmente desde abajo hasta arriba. Este enfoque, que
algunos consideran como el único y “verdadero” enfoque nanotecnológico, ha de permitir que la
materia pueda controlarse de manera extremadamente precisa. De esta manera podremos
liberarnos de las limitaciones de la miniaturización, muy presentes en el campo de la electrónica.
1 http://www.nanotecnologica.com
Nanotecnología aplicada en electrónica
En el campo de la ingeniería electrónica, las nanotecnologías se emplean, por ejemplo, en el
diseño de dispositivos de almacenamiento de datos de menor tamaño, más rápidos y con un
menor consumo de energía. Estos son algunos de los campos donde actualmente se están
investigando y se está tratando este nuevo tipo de tecnología, pero no son las únicas ramas, hay
muchas más, con muchos más inventos y con proyectos en marcha.
La Nanotecnología aplicada a la computación
Las cosas han cambiado mucho desde las primeras computadoras electrónicas. El ENIAC I
estaba compuesto por más de 70.000 resistencias, 18.000 válvulas y 10.000 condensadores; pesaba
30.000 Kilos y ocupaba 1.300 metros cuadrados. Pero el descubrimiento del chip, ha reducido el
tamaño de los ordenadores. Según algunos estudios, la potencia de las computadoras llegará a
estancarse dentro de unos años, porque el tamaño de los transistores no podrá reducirse
indefinidamente. Según la famosa Ley de Moore), “el número de transistores que caben en un chip
de silicio se dobla cada 18 meses”. La segunda Ley de Moore, menos conocida, es “que el coste de
fabricación de un chip se duplica cada año”. La reducción del tamaño de los transistores necesita
utilizar maquinaria cada vez más perfecta. Mantener la tecnología basada en transistores supondría
la quiebra para muchos fabricantes de chips porque no podrían soportar los altos costes. Por eso se
están investigando nuevos sistemas dentro de la nanotecnología.
En un futuro no muy lejano, los PCs estarán compuestos, en lugar de transistores, por otros
componentes como las moléculas, neuronas, bacterias u otros métodos de transmisión de
información. Entre estos proyectos se encuentra el futuro ordenador “químico”, desarrollado por
científicos de Hewlett-Packard y de la Universidad de California (Los Ángeles). Los circuitos de este
nuevo modelo son moléculas, lo que supone transistores con un tamaño millones de veces más
pequeños que los actuales.
El proyecto de chip molecular sustituirá al silicio y a la óptica, a favor de la química, más
manipulable. Se prevé que se podrán fabricar computadoras del tamaño de una mota de polvo y
miles de veces más potentes que los existentes.
También es necesario fabricar otros conductores. Los experimentos con nanotubos de carbón
(milmillonésima parte de un metro) para la conducción de información entre las moléculas ya han
dado resultados. IBM acaba de anunciar que ha conseguido crear un circuito lógico de ordenador
con una sólo molécula de carbono. Este proyecto permite introducir 10.000 transistores en el espacio
que ocupa uno de silicio.
Nanotecnólogos por un día 2012
En el 2001 científicos israelitas, presentaron una computadora con del ADN tan diminuta que
un millón de ellas podría caber en un tubo de ensayo y realizar 1.000 millones de operaciones por
segundo con un 99,8 por ciento de precisión. Es la primera máquina de computación programable de
forma autónoma en la cual la entrada de datos, el software y las piezas están formados por
biomoléculas. Los programas de la microscópica computadora están formados por moléculas de
ADN que almacenan y procesan la información codificada en organismos vivos.
La posibilidad de desarrollar miniordenadores de cien a mil veces más potentes que los
actuales podría suponer que éstos tuvieran inteligencia propia, lo que cambiaría los sistemas de
comunicaciones.
Los desarrollos en Nanotecnología se están aplicando también a los sistemas de seguridad.
La nanotecnología en PC
Código binario cambio
Hoy día, todos los PC operan mediante dígitos binarios conocidos como bits. El código binario
es conducido a través de transistores: pequeños interruptores que pueden encenderse o apagarse
para simbolizar series de “unos” y “ceros”.
Procesadores Superpuestos
Las futuras computadoras cuánticas emplearían un fenómeno físico conocido como
“superposición”, donde objetos de tamaño infinitesimal, como los electrones, pueden existir en dos o
más lugares al mismo tiempo. Esto significaría que las futuras computadoras creadas con
procesadores “superpuestos”, podrían utilizar bits cuánticos (llamados “qubits”: quantum bits). Un
qubit tiene la capacidad de representar ambos estados: un “0” y un “1” en forma simultánea.
Al ser capaces de calcular cada combinación de encendido y apagado de manera paralela, las
computadoras cuánticas serían increíblemente más rápidas que los procesadores.
Al ser capaces de calcular cada combinación de encendido y apagado de manera paralela, las
computadoras cuánticas serían increíblemente más rápidas que los procesadores actuales, pues
tendrían una enorme capacidad de procesamiento. Se estima que operarían a velocidades hasta mil
veces mayores que las presentes.
Ventajas de estos
Entre algunas de sus principales ventajas, estos increíbles equipos tendrían una potencia
mucho mayor para la encriptación de información; permitirían una búsqueda más rápida en
gigantescas bases de datos; posibilitarían el desarrollo de productos digitales seguros (como firmas
digitales e incluso dinero electrónico a prueba de fraudes), y simularían complejísimos sistemas
bioquímicos para el diseño de medicamentos.2
PC cuánticas
De esta manera, estas computadoras cuánticas pueden calcular cada combinación de
encendido y apagado al mismo tiempo, lo que las haría muchísimo más veloces que los actuales
procesadores de datos a la hora de resolver ciertos problemas complejos de cálculos matemáticos.
Investigación
Nanotecnólogos por un día 2012
La investigación de la computación cuántica está ganando terreno rápidamente en
laboratorios de investigación militares, de inteligencia y universidades alrededor del planeta. Entre
otros, están involucrados gigantes como AT&T, IBM, Hewlett-Packard, Lucent and Microsoft.
2 http://nanotecnolgiathomas.blogspot.com.ar
Mimetización de las cosas
En electrónica, miniaturización es sinónimo de éxito. Reducir el tamaño de los circuitos
integrados implica una respuesta más rápida y un menor consumo de energía. Y en esta escalada
hacia lo extremadamente pequeño, la nanotecnología se convierte en un aliado imprescindible.
Competencia de empresas
En estos momentos es la empresa Hewlett-Packard la que se encuentra más cerca de crear
una tecnología capaz de sustituir a los actuales procesadores. Otras empresas como IBM o Intel le
siguen de cerca.
Tan importante como la velocidad de procesamiento es la capacidad de almacenamiento. Eso
lo sabe bien Nantero, una empresa de nanotecnología que trabaja en el desarrollo de la NRAM. Se
trata de un chip de memoria de acceso aleatorio no volátil y basada en nanotubos. Sus creadores
aseguran que podría reemplazar a las actuales memorias SRAM, DRAM y flash, convirtiéndose en la
memoria universal para teléfonos móviles, reproductores MP3, cámaras digitales y PDAs.
Por su parte, investigadores han diseñado un tipo memoria flash de nanotubo que tiene una
capacidad potencial de 40 gigas por centímetro cuadrado y 1000 terabits por centímetro cúbico. Y la
compañía Philips trabaja en una nueva tecnología de almacenamiento óptico que permite el
almacenaje de hasta 150 gigabytes de datos en dos capas sobre un medio óptico similar a los
actuales DVDs.
Nanotecnología
La nanotecnología será un salto importante en la reducción de los componentes, y ya hay
avances, pero muchos de estos adelantos se consideran secretos de las empresas que los están
desarrollando.
Nanotecnología actualidad
Es moda en el ámbito académico del primer mundo y parece ser la que revolucionará todo.
EE.UU, Europa, Japón y Canadá ya llevan invertidos 2.200 millones de euros en los últimos 4 años
en ella.
La nanotecnología es la palabra de moda en los ambientes científicos y universitarios del
mundo desarrollado. Físicos, químicos, ingenieros, biólogos quieren explorar un campo todavía mal
definido, que promete mucho, pero sin aplicaciones industriales hasta dentro de 15 o 20 años.
Competencia empresas.
Muchas firmas comerciales las que han comenzado a invertir fuertes sumas de dinero en
investigación. Por un lado Estados Unidos, Japón, Canadá y la Unión Europea han destinado en los
últimos 4 años más de 2.200 millones de euros.
Nanotecnólogos por un día 2012
Sólo en el año 2003 Japón y Estados Unidos destinaron 1.000 y 770 millones de dólares,
respectivamente, para fomentar la investigación y su implantación en los procesos industriales.
China también se ha incorporado recientemente a esta carrera con un gran vigor, tras haber
formado a miles de científicos fuera de sus fronteras en materias relacionadas con la
nanotecnología. Grandes compañías como IBM, Motorola, HP, Lucent, Hitachi, Mitsubishi, Philips,
Pfizer, NEC, Corning, Dow Chemical o 3M, han lanzado ya iniciativas significativas en el terreno de
la nanotecnología.
Samsung, por ejemplo, dedica más de 500 personas a desarrollos basados en Nanotecnología en un centro de
investigación creado especialmente para ello.
El motivo de tanto interés no es extraño. La nanotecnología tiene potencial para cambiarlo
todo: las medicinas y la cirugía, la potencia de la informática, los suministros de energía, los
alimentos, los vehículos, las técnicas de construcción de edificios y la manufactura de tejidos.
Proyectos en PC
El tamaño de las computadoras del futuro también podría sorprender, ya que podría ser la
quincuagésima parte (cincuenta veces menor)n de una computadora actual de semiconductores que
contuviera similar número de elementos lógicos. La reducción del tamaño desemboca en dispositivos
más veloces; las computadoras podrán operar a velocidades mil veces mayores que las actuales.
Algunos estudios pronostican que la técnica híbrida, que conjuga microcircuitos
semiconductores y moléculas biológicas, pasará bastante pronto del dominio de la fantasía científica
a las aplicaciones comerciales. Las pantallas de cristal líquido ofrecen un espléndido ejemplo del
sistema híbrido que ha triunfado. Casi todas las computadoras portátiles utilizan pantallas de cristal
líquido, que combinan dispositivos semiconductores con moléculas orgánicas para controlar la
intensidad de la imagen en la pantalla. Son varias las moléculas biológicas que se podrían utilizar
con vistas a su utilización en componentes informáticos.
La industria del semiconductor (Intel) Ya anuncio la tecnología del procesador de 32nm,
Todavía no hay números que demuestren que es verdaderamente mejor que otros chips, y sólo se
sabe que formará parte de la plataforma Calpella, para procesadores dual-core Clarksfield pero
llegará un día en que los transistores alcancen los límites de la miniaturización a niveles atómicos y
haya que poner fin a las tecnologías de fabricación actuales. Aparte de los problemas para
interconectar la disipación de calor y la densidad, algo que algunos científicos esperan lograr con
aplicaciones basadas en nanotubos de carbono, existe también el problema fundamental de la
mecánica cuántica, que interferirá cuando el diseño de chips se aproxime a los 4nm, es decir,
cuando las dimensiones de los conductores sean tan pequeñas que los efectos cuánticos dominen el
comportamiento del circuito.
Almacenamiento atómico
Los efectos cuánticos también podrían ser beneficiosos. Un grupo de investigadores ha
demostrado que es posible almacenar un bit de información en un átomo y recuperarlo,
posteriormente. Pero que nadie espere ver pronto este sistema en su ordenador.
Nanotecnólogos por un día 2012
Nanologo de IBM
En 1990, científicos de la IBM consiguieron escribir el logotipo de su empresa a escala
atómica. Desde ese momento histórico, la nanotecnología dejó de ser la idea fantástica que por
primera vez planteara el físico Richard Feynman en 1959, para convertirse en una tecnología
concreta, aunque aún en su infancia.
Perspectivas sobre nanotecnología
Actualmente, alrededor de 40 laboratorios en todo el mundo canalizan grandes cantidades de dinero
para la investigación en nanotecnología. Unas 300 empresas tienen el término nano en su nombre,
aunque todavía hay muy pocos productos en el mercado.
Algunos gigantes del mundo informático como IBM, Hewlett – Packard (HP), NEC e Intel están
invirtiendo millones de dólares al año en el tema. Los gobiernos del llamado Primer Mundo también
se han tomado el tema muy en serio, con el claro liderazgo del gobierno estadounidense, que para
este año ha destinado 570.
Millones de de dólares a su National Nanotechnology Initiative.
En España, los científicos hablan de nano-presupuestos. Pero el interés crece, ya que ha habido un
par de congresos sobre el tema: en Sevilla, en la Fundación San Telmo, sobre oportunidades de
inversión, y en Madrid, con una reunión entre responsables de centros de nanotecnología de
Francia, Alemania y Reino Unido en la Universidad Autónoma.
El motivo de tanto interés no es extraño. La nanotecnología tiene potencial para cambiarlo
todo: las medicinas y la cirugía, la potencia de la informática, los suministros de energía, los
alimentos, los vehículos, las técnicas de construcción de edificios y la manufactura de tejidos.
Muchas cosas más que ni imaginamos.
Hasta el momento, los avances en nanotecnología han dejado solamente un material nuevo,
pero que está generando aplicaciones revolucionarias por todos lados: los nanotubos. No obstante el
mayor obstáculo en el desarrollo de nano-materiales sigue siendo la manipulación de moléculas.
Actualmente, los investigadores construyen nano-estructuras cogiendo una molécula por vez; pero
para producirlos a escala masiva para el mercado, deberán primero aprender a manejar con
precisión miles e incluso millones de moléculas de un solo tirón.
Dispositivos nanoinformáticos
Usando nanotubos semiconductores, investigadores de varias empresas y laboratorios han
desarrollado circuitos de computación de funcionamiento lógico y transistores, las puertas
electrónicas lógicas de que están compuestos los chips.
En agosto del año pasado (2011), en lo que es considerado un paso fundamental hacia la
computadora molecular, IBM mostró el primer circuito de ordenamiento lógico formado por
nanotubos de carbono. Las computadoras moleculares basadas en estos circuitos tienen el potencial
de ser mucho más pequeñas y rápidas que las actuales, además de consumir una cantidad
considerablemente menor de energía.
En cuanto a los transistores, los Laboratorios Bell de Lucent Technologies mostraron en
octubre del 2001 un transistor de escala molecular con la misma capacidad que el clásico transistor
de silicio. Intel no ha mostrado ninguna investigación relacionada a los nanotubos, pero trabajando
Nanotecnólogos por un día 2012
con silicio a escala nanométrica, la compañía hizo, también el año pasado, otro anuncio igualmente
espectacular el transistor de silicio más rápido jamás producido, de apenas veinte nanómetros.
El transistor se enciende y se apaga -recordemos el 1 y el 0 del sistema binario, que forma la base
de la informática- más de mil millones de veces por segundo, un 25% más veloz que los transistores
más recientes. Para el 2007, Intel espera estar fabricando chips conteniendo mil millones de estos
transistores, lo que le permitiría llegar a una velocidad de 20 GHz con la energía de un voltio.
En cuanto a memorias, IBM anunció hace apenas cinco meses que su proyecto de nombre código
Millipede, que pretende crear capacidades mayores a las existentes, se basa en procesos de escala
nanométrica. Este dispositivo de almacenamiento regrabable, de alta capacidad y densidad, trabaja
en base a mil pequeñas agujas similares a las del microscopio AFM, con puntas capaces de tocar
átomos individuales y escribir, leer y borrar así grandes cantidades de información en un espacio
mínimo. De apenas nueve milímetros cuadrados, los investigadores de IBM estiman que en los
próximos años, la tecnología Millipede puede superar la capacidad de la tecnología de memoria
Flash en cinco veces o más.
Este tipo de desarrollos -tanto los nanotransistores, como las nanomemorias pueden ser cruciales
para absorber las crecientes e inmensas capacidades de procesamiento y memoria que demandan
los desarrollos multimedia, más aún cuando se avizora que de acá al máximo diez años la tecnología
actual de semiconductores habrá agotado sus posibilidades de crecimiento.
En cuanto a alimentación, la corporación japonesa NEC, junto a otros institutos de
investigación; ha anunciado el desarrollo de una célula de carburante con una capacidad diez veces
mayor que una batería de litio, pero de tamaño diminuto, en lo que constituye otra aplicación de los
nanotubos de carbono, esta vez como electrodos. En el futuro próximo, esta batería le podría permitir
a dispositivos portátiles, como las notebooks, funcionar varios días seguidos sin conectarse a la
corriente.
Los desarrollos en Nanotecnología se están aplicando también a los sistemas de seguridad. La
empresa taiwanesa Biowell Technology presentó, un sintetizado que puede utilizarse para probar la
autenticidad de pasaportes y otros documentos y tarjetas, con el fin de evitar el pirateo.
Este chip podrá utilizarse también en tarjetas de débito, carnés, matrículas de automóviles,
permisos de conducir, discos compactos, DVD, programas informáticos, títulos y valores, bonos,
libretas bancarias, antigüedades, pinturas, y otras aplicaciones en las que se necesite comprobar la
autenticidad.
Ventajas
El uso de la Nanotecnología molecular (MNT) en los procesos de producción y fabricación
podría resolver muchos del los problemas actuales. Por ejemplo:
-La escasez de agua. La mayor parte del consumo del agua se utiliza en los sistemas de producción
y agricultura, algo que la fabricación de productos mediante la fabricación molecular podría
transformar.
-Las enfermedades infecciosas causan problemas en muchas partes del mundo. Productos sencillos
como tubos, filtros y redes de mosquitos podrían reducir este problema.
-La información y la comunicación son herramientas útiles, pero en muchos casos ni siquiera existen.
Nanotecnólogos por un día 2012
Con la nanotecnología, los ordenadores serían extremadamente baratos.
-Muchos sitios todavía carecen de energía eléctrica. Pero la construcción eficiente y barata de
estructuras ligeras y fuertes, equipos eléctricos y aparatos para almacenar la energía permitiría el
uso de energía termal solar como fuente primaria y abundante de energía.
-El desgaste medioambiental es un serio problema en todo el mundo. Nuevos productos tecnológicos
permitirían que las personas viviesen con un impacto medioambiental mucho menor.
-Muchas zonas del mundo no pueden montar de forma rápida una infraestructura de fabricación a
nivel de los países más desarrollados. La fabricación molecular puede ser auto-contenida y limpia:
una sola caja o una sola maleta podría contener todo lo necesario para llevar a cabo la revolución
industrial a nivel de pueblo.
-La nanotecnológica molecular podría fabricar equipos baratos y avanzados para la investigación
médica y la sanidad, haciendo mucho mayor la disponibilidad de medicinas más avanzadas. En
segundo término existe otra visión más edificante (literalmente): edificios que se erigen solos, como
por arte de magia, bajo las órdenes de nanorobots equipados con nanocomputadoras que aparte de
autoreplicarse inducen la creación y ensamblaje de estructuras a nivel molecular. Ciudades enteras
podrían crearse, o recrearse.
Podrían fabricarse así autopistas o televisores. También sería posible eliminar la
contaminación ambiental con nanomáquinas diseñadas para “comérsela”, y crear alimentos,
automóviles que pueden cambiar de forma, muebles, procesos automáticos de limpieza corporal,
drogas artificiales, libros... los nanorobots podrían reparar tuberías y, por supuesto, generar una
nueva frontera de aplicaciones médicas, incluyendo la regeneración de tejidos.
“La industria nanotecnológica ha comprendido que es más fácil y barato sacar de la
naturaleza materiales autorreplicantes que construir robots mecánicos autorreplicantes. En su lógica,
es mejor reemplazar a las máquinas con organismos vivos, en vez de máquinas que los imiten”, dice
Hope Shand, directora de investigaciones del Grupo ETC (Grupo de Acción sobre Erosión,
Tecnología y Concentración).
La maquinaria de la naturaleza puede brindar el camino para la tecnología de construcción
atómica precisamente porque los organismos vivos son capaces de autoensamblarse y en ese
sentido son máquinas autorreplicantes ya listas.
Economizacion artefactos electrónicos proyecto
Uno de los grandes problemas en el mundo de los avances tecnológicos es sin duda la brecha
digital, y la falta de acceso por parte de la mayor parte de la población mundial a los beneficios de las
nuevas tecnologías.
La fabricación molecular es capaz de desarrolla puertas de lógica informática que miden unos
cuantos nanómetros en una cara, y que se pueden almacenar en 3D. Todo un súper-ordenador
puede caber en un milímetro cúbico y costar una pequeña fracción de un céntimo.
Con actuadores más pequeños que un bacterium, la fabricación de una pantalla fina y de alta
resolución sería fácil (y barato). Con frecuencias mecánicas GHz, un aparato mecánico puede
Nanotecnólogos por un día 2012
detectar y producir ondas de radio. Así que la computación, la comunicación y la presentación de
información en pantalla son todos posibles a través de tecnología con diodos de diamantes.
Ordenadores y teléfonos celulares y móviles podrían ser accesibles económicamente para la
gente más pobre en el mundo y podrían llevar incorporado más que suficiente capacidad de
procesamiento para crear interfaces de voz para usuarios analfabetos.
Asimismo, la fabricación de equipos informáticos para la creación de redes es cada vez
menos costosa, y se están desarrollando programas de software para redes. Se podría proceder a la
conexión digital de todo el mundo en cuestión de un año, lo que supondría un enorme paso hacia la
corrección de la brecha digital.3
Desventajas
La nanotecnología molecular es un avance tan importante que su impacto podría llegar a ser
comparable con la Revolución Industrial pero con una diferencia destacable - que en el caso de la
nanotecnología el enorme impacto se notará en cuestión de unos pocos años, con el peligro de estar
la humanidad desprevenida ante los riesgos que tal impacto conlleva. Algunas consideraciones a
tener en cuenta incluyen:
Importantes cambios en la estructura de la sociedad y el sistema político.
-La potencia de la nanotecnología podría ser la causa de una nueva carrera de armamentos entre
dos países competidores. La producción de armas y aparatos de espionaje podría tener un coste
mucho más bajo que el actual siendo además los productos más pequeños, potentes y numerosos.
-La producción poco costosa y la duplicidad de diseños podría llevar a grandes cambios en la
economía.
-La sobre explotación de productos baratos podría causar importantes daños al medio ambiente.
-El intento por parte de la administración de controlar estos y otros riesgos podría llevar a la
aprobación de una normativa excesivamente rígida que, a su vez, crease una demanda para un
mercado negro que sería tan peligroso como imparable porque sería muy fácil traficar con productos
pequeños y muy peligrosos como las nanofábricas.
-Existen numerosos riesgos muy graves de diversa naturaleza a los que no se puede aplicar siempre
el mismo tipo de respuesta.
-Las soluciones sencillas no tendrán éxito. Es improbable encontrar la respuesta adecuada a esta
situación sin entrar antes en un proceso de planificación meticulosa.
Las visiones pueden ser perturbadoras. Primero una apocalíptica, sensación que ronda en
forma permanente a los nuevos avances: armas letales, como microscópicos robots construidos por
nanoensambladores, que recorren las ciudades arrasando con sus habitantes mientras se replican a
sí mismos.
3 http://www.euroresidentes.com
Nanotecnólogos por un día 2012
Consecuencias y peligros de la nanotecnología
Quizás el mayor temor que las personas sienten cuando una nueva tecnología emerge es la
seguridad propia o mundial. Los peligros de la tecnología han quedado manifiestos con
las bombas nucleares, en donde en ese tiempo hubo la conmoción de las posibilidades y
repercusiones que puede tener una tecnología aplicada a fines militares.4
Avances de la sociedad
Alberto Galindo, académico de la Universidad Complutense de Madrid, es enfático al respecto:
“Al igual que la sociedad usuaria de los mastodónticos ordenadores de finales de los 40, con miles
de tubos de vacío y decenas de toneladas de peso, no se imaginaba que medio siglo después
cualquier colegial dispondría de máquinas de calcular mucho más ligeras y potentes. Queremos
pensar que el ingenio de los científicos logrará vencer finalmente las dificultades para construir
ordenadores cuánticos de potencia adecuada”.
Es algo común el temor a un nueva tecnología...Volviendo a tiempos remotos muchos podrían
haber tenido mucho miedo a nuevos.
Inventos no tendríamos muchísimos fármacos. No se podrían fabricar muchas cosas del
mundo actual. La nanotecnología investigar poder atraer mayor energía que el 15% del silicio en las
células fotovoltaicas “células fotovoltaica nanotenonixadas” en unos 5 años se cree pasar...puede
solucionar los problemas de dependencia del petróleo Si ahora frenamos la tecnologías podríamos
perder de muchos avances y muchas soluciones en la vida cotidiana. Si miramos al pasado no se
hubiera evolucionado en la vida.
Conclusión
La nanotecnología en la medicina, quizás traerá la cura del cáncer o la protección contra
diferentes infecciones causadas por bacterias u otros microorganismos, o más aun, la cura de la
enfermedad que hoy en día tememos demasiado: el SIDA.
Entre las cuestiones éticas y filosóficas que traerá seguramente será la definición de lo que
verdaderamente es la vida, quizás una definición desde el punto de vista molecular.
También quizás nos cuestionemos de sí estará bien usar estos inventos para prolongar aun
más nuestra vida, ya que por el momento la vejez se define como el degeneramiento de las células y
de sus componentes. Y como la función de los nanoinventos será la de corregir estos problemas,
quizás prolonguemos mas nuestra vida media. Finalmente hallaremos la verdadera fuente de
la juventud.
El temor que tiene la gente acerca de esta tecnología es sin lugar a dudas debida en parte a la
ignorancia y mientras no se cambie esta actitud no se permitirán grandes adelantos en la ciencia.
Aunque este miedo tiene algo de fundamento, ya que pondrá armas microscópicas al alcance de
terroristas.
Mientras aun se muestren los pros y los contras, hay que tomar en consideración que una
actitud de negación no resolverá nada, sino al contrario ya que al no permitirse la investigación
quizás puedan surgir pequeños grupos de investigación con fines poco éticos. Sin lugar a dudas la
mejor actitud será la de apertura a esta tecnología, ya que ofrecerá múltiples beneficios en todas las
Nanotecnólogos por un día 2012
ramas de la ciencia, además de un mayor entendimiento de cómo es que se forma la vida en todas
sus múltiples formas.
Hasta ahora ciencia ficción sin embargo hay que recordar “ la realidad siempre supera la
ficción”
El ingreso de la nanotecnología es considerado como la segunda revolución tecnológica.
4 http://mrkbtpmannanotec.blogspot.com.ar
Bibliografía
Fuentes extraídas de :
www.nanotecnologica.com
nanotecnolgiathomas.blogspot.com.ar
www.portalciencia.net
www.euroresidentes.com
mrkbtpmannanotec.blogspot.com.ar
Videos: de Nanotech- History Channel
Archivo Pdf. “Udnano” (brindado por FAN (Fundación Argentina de Nanotecnología). NANOCIENCIA
Y NANOTECNOLOGÍA.
Entre la ciencia ficción del presente y la tecnología del futuro
Editado: Fundación Española para la Ciencia y la Tecnología
Libros: Nanotecnología “el desafío del siglo XXI” Galo Soler Illia - 2009 Editorial Universitaria de
Buenos Aires.
Aplicaciones nanotecnológicas
en el aprovechamiento de energía eólica y
fotovoltaica.
Alumnos: Josefina Dotti Felcaro
Colegio Integral de Educación Ushuaia
“Libertador General San Martín”
Ushuaia, Tierra del Fuego
Nanotecnólogos por un día 2012
Introducción
La nanociencia es una combinación derivada de los conocimientos adquiridos en la física del sólido, la
química de materiales, la ciencia de materiales, la biología molecular, la bioquímica, algunas ingenierías, etc.
Su aplicación, la nanotecnología, se basa en el control y manipulación de la materia a escala nanométrica, es
decir, en el orden de 10-9 metros, a nivel de átomos y moléculas. Su aplicación se basa en el desarrollo de materiales a escala nanométrica con novedosas y útiles propiedades, que dependen además de su estructura, de su
tamaño. Algunas de estas propiedades son pervasivas, aplicables a todos los elementos que el hombre utiliza
diariamente, otras están orientadas a optimizar los materiales ya existentes, por ejemplo, crear pinturas y plásticos más impermeables o materiales más rígidos y controlables. Otras resultan completamente innovadoras,
capaces de realizar acciones como detectar enfermedades, repartir medicamentos en puntos seleccionados del
cuerpo humano, entre otras. Es por esto que posee infinitos campos de aplicación entre los cuales se destacan
la medicina, la producción de alimentos, el cuidado medioambiental, la computación, etc.
En Argentina, la nanotecnología constituye una de las áreas científicas de mayor prioridad, junto con
la biotecnología y la tecnología de información y comunicaciones.
El desarrollo de las nanotecnologías ha permitido la creación de nuevos materiales (denominados
nanomateriales) con útiles propiedades y se ha logrado una gran mejora en el rendimiento de los materiales
ya utilizados en diversos campos de la industria. Uno de estos campos es el de las energías renovables, de las
cuales se tratarán en particular en esta monografía la eólica y la fotovoltaica.
Primeramente, se describirán en forma concisa las formas de obtención de energía utilizadas en la
actualidad, para luego ahondar más específicamente en la energía eólica y la fotovoltaica; y, lo que constituye
principalmente el objetivo de este escrito, investigar sobre cómo la nanotecnología puede aplicarse a la explotación de dichas energías, para lograr un mayor rendimiento y rentabilidad en los avances logrados particularmente en nuestro país.
Métodos de generación de energía eléctrica
La generación de energía eléctrica consiste en transformar alguna clase de energía: química, mecánica,
térmica o lumínica, entre otras, en energía eléctrica aprovechable para el uso cotidiano.
Dependiendo cual de dichas fuentes de energía potencial primaria sea utilizada para la transformación,
las centrales generadoras se clasifican básicamente en:
•
Centrales hidroeléctricas: aprovechan la energía mecánica contenida en el agua de ríos o mares para
mover las turbinas generadoras, ya sea haciendo pasar grandes cantidades de agua a presión, mediante
la creación de un desnivel por un embalse en un río, o por el aprovechamiento de la energía cinética
del mar, proveniente de las mareas y las olas.
Nanotecnólogos por un día 2012
•
Centrales termoeléctricas: producen energía utilizando vapor de agua a presión para mover las turbinas generadoras. Para obtener dicho vapor, el agua se calienta mediante diferentes procesos, tales
como: la quema de combustibles fósiles, la fisión nuclear, el procesamiento de energía solar y de
energía geotérmica. Ello implica que, según sea el proceso generador, variará la eficiencia y la contaminación producida, desde la relativamente alta eficiencia pero elevada contaminación residual de
la fisión nuclear hasta la baja eficiencia pero muy baja contaminación –si es que la hay- de la energía
solar.
•
Centrales basadas en energía eólica: aprovechan la fuerza motriz de los vientos para mover las turbinas generadoras. Los aerogeneradores necesitan vientos constantes, no necesariamente fuertes. Si
bien se trata de una fuente de energía limpia, son estructuras muy grandes que provocan mucho ruido,
por lo que deben de estar suficientemente alejados de núcleos habitados. Además, la proliferación de
numerosos aerogeneradores en un lugar puede acarrear interferencias con la vida de las aves.
•
Centrales basadas en energía fotovoltaica: producen energía utilizando placas de silicio que transforman directamente la luz solar en electricidad. Es una tecnología muy simple y el método de generación
eléctrica con menores costos de mantenimiento. Esto es debido a que la fotovoltaica es el único método
de generación eléctrica 100% electrónico y libre de mecánica, con lo cual requiere de poco mantenimiento. Las placas fotovoltaicas alcanzan su mayor eficacia cuanto mayor sea la iluminación, es decir
en días despejados y calurosos. Sin embargo, al ser capaces de convertir en electricidad tanto la radiación directa como la difusa, si bien a potencias inferiores, generan electricidad aún en días nublados e
incluso con lluvia ligera. Aunque la tecnología es limpia y no produce molestias el rendimiento de las
placas aún hoy es relativamente bajo.
Métodos de generación de energía eléctrica en Argentina
La mayor parte de la energía eléctrica consumida a nivel mundial proviene de la quema de combustibles fósiles y de la energía nuclear, es decir, de fuentes de energía no renovables y que, además, producen
algún tipo de contaminación ambiental persistente en el tiempo.
En la Argentina, al menos hasta la década del 80, la energía eléctrica producida era mayoritariamente
de origen térmico, a la que posteriormente se sumó la energía hidroeléctrica con la construcción de grandes
represas como la Yacyretá, inaugurada en 1994, ubicada sobre el río Paraguay. Es de destacar la construcción
de las centrales nucleares de Atucha I y II y de Embalse, inauguradas en 1974, 2011 y 1983, respectivamente,
que si bien no tienen una importante participación en la potencia instalada (poseen 357 MWe, 745 MWe y 648
MWe, respectivamente) permiten al país contar con tecnología nuclear.
El recurso eólico en nuestro país
Respecto de la generación eólica, debe destacarse que la Argentina cuenta con un importante recurso
Nanotecnólogos por un día 2012
eólico (vientos) principalmente en la zona de la Patagonia, y que actualmente existen algunas experiencias
de instalación de aerogeneradores conectados a la red de servicios públicos. Por ejemplo, el parque eólico de
Pico Truncado (Santa Cruz), propiedad de la municipalidad de Pico Truncado, que produce 1.000 kW y se
distribuye a través de la red local hacia 4.100 viviendas y la Red Patagónica. En general, estas experiencias
fueron realizadas por cooperativas eléctricas que, si bien están conectadas al sistema nacional o regional, reciben la energía con altos costos de transporte.
Según estudios como los realizados por el Ing. Nicolás Brown sobre la “calidad” de los vientos que
soplan en nuestro territorio (hablando de la velocidad de éstos y principalmente su continuidad, utilizando los
registros de estaciones anemométricas), Argentina cuenta con uno de los mejores vientos en el mundo aptos
para la producción de energía eólica. Posee velocidades medias de viento que superan los 6m/s. en la mayor
parte de su territorio (medidas a 50 metros de altura) y numerosas zonas con un factor de capacidad (FC) del
45%. El FC se define como el valor porcentual de la energía que una turbina eólica entregará durante todo un
año en relación a la cantidad de energía que podría entregar una turbina trabajando el 100% del tiempo. Inclusive varias zonas del sur de la provincia de Buenos Aires tienen un FC = 35%. La mayoría de los lugares de
Europa donde la energía eólica está muy desarrollada, poseen un FC que ronda el 25%.
En la actualidad, según lo informado por la Secretaría de Energía de la Nación para el mes de agosto
de 2012, la generación de energía en Argentina a partir del aprovechamiento eólico representa menos del
0,3% del total. Pero existe el compromiso de desarrollar ésta y otras fuentes de energías renovables, según lo
establecido en el Decreto Nº 1142/ 2003, que establece, como meta para el año 2016, que el 8% del consumo
de electricidad nacional deberá ser abastecido con energías renovables, incluyendo a todas las fuentes alternativas y sólo limitando a las hidroeléctricas hasta 30MW.
Desafíos para la explotación eólica
El aprovechamiento de nuestro excelente recurso eólico a través de molinos, sin embargo, presenta
algunos desafíos técnicos a tener en cuenta para su desarrollo:
• Al ser el aire un fluido de bajo peso específico, para su mejor aprovechamiento implica fabricar máquinas grandes y, típicamente, costosas tanto en su fabricación como en su instalación. La altura de los
molinos puede igualar a la de un edificio de diez o más plantas, en tanto que la envergadura total de
sus aspas alcanza la veintena de metros. Podemos hacernos una idea del costo de fabricación e instalación tomando como ejemplo el prototipo de molino eólico de la empresa minera Barrick, instalado
en Veladero, provincia de San Juan (Argentina), el cual siendo uno de los más grandes del mundo (con
una torre de 60 metros de altura y aspas de 40 metros) tuvo un costo de US$ 8,5 millones. Tomando
en cuenta que, para que el aprovechamiento de la energía eólica sea rentable, es necesario montar un
parque que agrupe numerosos molinos, podemos deducir su costo en infraestructura, aunque en general se utilicen molinos más pequeños que el citado como ejemplo.
• Además, la vida útil de un generador eólico oscila entre los 15 y 20 años. Esto se debe, principalmente,
Nanotecnólogos por un día 2012
al desgaste mecánico de sus componentes, y al desgaste y la corrosión sufrido en las aspas provocado
por las inclemencias ambientales. Estas fallas resultan muy difíciles de reparar en los molinos una vez
instalados.
Por lo tanto, si bien la energía eólica resulta una opción de energía limpia, cuyo aprovechamiento produce un impacto relativamente mucho menor en el ambiente que otras formas de obtención de energía y de
factible aplicación en nuestro país; teniendo en cuenta su costo sería enormemente ventajoso conseguir, mediante el estudio y desarrollo de nuevas opciones en mecánica y en materiales componentes, molinos con una
vida útil mucho más extensa y más eficiente en la obtención de energía, que motive al Estado y a las empresas
privadas a invertir en este campo energético.
El recurso solar en nuestro país
Los esfuerzos más importantes para el desarrollo de la energía solar en el país se han realizado a partir
de 1975, después del llamado de atención que significó la primera crisis energética de 1974. Los grupos que
colaboraron con el desarrollo de la energía solar en nuestro país fundaron la Asociación Argentina de Energías
Renovables y Medio Ambiente (ASADES). Sin embargo, la mayor parte de las tecnologías desarrolladas aún
no han tenido oportunidad de ser aplicadas en forma masiva.
El recurso solar argentino ha sido cuantificado entre los años 1970 y 1980 por el grupo dirigido por el
Dr. Grossi Gallegos, investigador y profesor de la Universidad de Luján, el cual instaló una red solarimétrica
que llegó a tener más de 40 estaciones de registro. Desgraciadamente esta red sufrió una gran disminución del
número de estaciones debido a problemas financieros. Grossi Gallegos y sus colegas han publicado en 2004
datos de radiación solar media mensual, de donde se desprende que la Argentina dispone, en una buena parte
del territorio, de niveles interesantes de energía solar, en particular en las regiones andinas y sub-andinas desde
Jujuy a Neuquén. Junto con San Juan, Mendoza tiene una de las mejores condiciones para la aplicación de los
sistemas de energía solar del mundo, con unos 300 días de sol anuales promedio, y entre 4 y 4,65 horas diarias
equivalentes a 1000 W/m2 cada una, con una mínima variación en invierno. Estos significativos valores energéticos, sumados a los posibles de ser obtenidos mediante el aprovechamiento de la energía eólica, podrían
abastecer las necesidades actuales del país.
Actualmente en Argentina existe una única planta fotovoltaica, la San Juan I, ubicada en Ullum, provincia de San Juan, siendo también la primera en Latinoamérica. Ésta cuenta con casi 5.000 paneles solares
que permiten generar una energía de 1,2 megavatios y abastecer de manera limpia a unos 1.500 hogares. Esto
constituye un enorme avance en materia de energías renovables en nuestro país, pero como puede observarse,
su rendimiento está lejos de alcanzar el nivel de producción de otras energías no tan limpias.
La aplicación de materiales nanotecnólogicos en la infraestructura necesaria para la explotación de ambas energías, eólica y fotovoltaica, podría significar obtener una mayor eficacia en estos avances mencionados.
Nanotecnólogos por un día 2012
Aplicación de refuerzos nanotecnológicos en molinos eólicos
En la actualidad, las aspas de los aerogeneradores son fabricadas generalmente a partir de los siguientes materiales:
• Aleaciones de acero y de aluminio, que tienen problemas de peso y de fatiga del metal.
• Fibra de vidrio reforzada con resina poliéster, que aunque es usada para la mayoría de las modernas
palas de rotor de grandes aerogeneradores, presenta dificultad para localizar el centro de gravedad.
• Fibra de vidrio reforzada con resina epoxy (en forma de láminas preimpregnadas), constituyen uno de
los materiales más efectivos actualmente, dando como resultado, en comparación a los demás materiales, aspas más ligeras, mayor flexibilidad, menor deformación bajo temperaturas extremas y excelente
resistencia a la absorción de agua.
• Fibra de carbono o aramidas (Kevlar 29 o Kevlar 49), se utiliza como material de refuerzo en tiras
por sus buenas propiedades mecánicas. Presenta alta resistencia específica y permite crear aspas muy
ligeras. La desventaja es que normalmente estos materiales resultan antieconómicos para grandes aerogeneradores.
• Mixtos fibra de vidrio-fibra de carbono.
Sin embargo, existen materiales nanotecnológicos en investigación que, gracias a sus particulares
propiedades, podrían permitir el desarrollo de aspas para turbinas eólicas de mayor tamaño y excelente
rendimiento, incrementando de esta forma la producción de energía. En una comparación entre distintos materiales, investigadores como Marcio Loos (de cuya investigación hablaremos posteriormente) constataron
que las nuevas combinaciones de un refuerzo nanotecnológico y un determinado material como el poliuretano
resultó más ligera que la fibra de carbono y el aluminio utilizados tradicionalmente: superó a dichos materiales
en lo que a resistencia a la tracción se refiere.
La efectividad conseguida en las pruebas demuestra que la aplicación de la nanotecnología tiene un
importante potencial para su empleo en la próxima generación de aspas para aerogeneradores.
Nanotubos de carbono
La aplicación de refuerzos nanométricos en el material de los componentes de los molinos, particularmente de las aspas, podría alargar su vida útil, evitar fisuras, protegerlas del desgaste, y aumentar su eficiencia
en cuanto a producción de energía.
Además, se podría multiplicar la potencia eléctrica generada por los parques eólicos si se lograra dar
con un material lo suficientemente ligero, y a la vez resistente, para aumentar el tamaño de las aspas de las
turbinas.
Nanotecnólogos por un día 2012
Para ello, se ha ensayado la utilización de “nanotubos de carbono”. Éstos son estructuras tubulares
cuyo diámetro es del orden del nanómetro (nm), compuestos por átomos de carbono ligados entre sí con una
atracción muy enérgica. Los nanotubos de carbono son una forma alotrópica del carbono (forma de organización en estructura molecular del mismo elemento) como lo son el diamante, el grafito o los fullerenos. La estructura de los nanotubos puede considerarse el equivalente a una lámina de grafito enrollada sobre sí misma.
Dependiendo del grado de enrollamiento y la manera como se conforma la lámina original, el resultado puede
llevar a nanotubos de distinto diámetro y geometría interna, lo que determinará sus propiedades electrónicas.
Cabe aclarar que esta comparación con el grafito es meramente ilustrativa, ya que los nanotubos de carbono se
crean a partir de otros procedimientos diferentes al enrollamiento de moléculas de grafito ya existentes.
Constituyen las fibras más fuertes que se conocen actualmente: son más fuertes que el acero y a la vez
más ligeros. Se pueden aplicar formando un material compuesto junto con el material tradicional de las aspas
(fibra de vidrio y resinas epoxi).
Las ventajas del uso de los nanotubos de carbono ya se ha demostrado en otros ámbitos tales como en
la fabricación de barcos y material deportivo (bicicletas, raquetas, etc.). Comparándolos con otros materiales
de refuerzo, los investigadores descubrieron que los nanotubos de carbono son más ligeros por unidad de
volumen que las matrices de fibra de carbono y aluminio, pero tienen más de cinco veces la resistencia a la
tracción que la fibra de carbono y más de sesenta veces mayor que la de aluminio. De este modo, podrían fabricarse estaciones eólicas compuestas por molinos con aspas de mayores dimensiones, pero estables y ligeras,
aumentando así la eficiencia de estas estaciones hasta en un 30 % (puesto que la energía que proporciona cada
turbina es proporcional al cuadrado de la longitud de las aspas). El hecho de que las aspas sean más ligeras,
igualmente permitiría que puedan funcionar con velocidades de viento mucho menores (2 m/s) a las requeridas
por los molinos convencionales (dicha velocidad mínima de viento requerida se denomina cut-in speed), que
van generalmente desde los 3 o 4 m/s, hasta los 25 m/s en los mejores casos, ya que por motivos de seguridad
y con el fin de alargar la vida útil de los molinos, éstos son apagados cuando el viento supera dicha velocidad.
Para intentar obtener estas características en las aspas, Marcio Loos, un investigador post-doctoral de
la Case Western Reserve University en Cleveland, Ohio (EE.UU.), ha creado la primera pala de turbina del
mundo de resina de poliuretano reforzada con nanotubos de carbono. Según la Dra. Ica Manas-Zloczower,
profesora de Ciencia e Ingeniería Macromolecular y decana asociada de la misma Universidad: “Los resultados de los ensayos mecánicos para las palas de poliuretano reforzado por nanotubos de carbono superan a las
resinas utilizadas actualmente para las aspas comerciales”.
Las pruebas de fatiga mostraron que el compuesto de poliuretano reforzado dura alrededor de ocho
veces más que los de epoxy reforzados con fibra de vidrio. El nuevo material también fue ocho veces más duro
en las pruebas de fractura. El rendimiento en las pruebas realizadas alcanzó aún mejores resultados al comparar el nuevo compuesto con viniléster reforzado con fibra de vidrio, otro material de amplia aplicación en las
aspas para aerogeneradores. Asimismo, también superó con claridad en distintos parámetros al rendimiento
obtenido con otras resinas.
Nanotecnólogos por un día 2012
Entonces, para obtener el material de los molinos con las propiedades necesarias, se podrían emplear
fibras tales como la comúnmente utilizada fibra de vidrio o el kevlar, reforzadas con los mencionados nanotubos de carbono. Así se lograría un material compuesto resistente y liviano, que se podría combinar también
con las típicas resinas tipo epoxi o poliéster, para formar entramados matriciales aún más resistentes.
Sin embargo, el uso de nanotubos de carbono y los sistemas asociados a la fabricación de materiales
con este refuerzo no es precisamente económico. Cabría entonces analizar si los mayores costos de fabricación
de las nuevas aspas fueran subvencionados por una mayor y más eficiente producción energética. Entonces,
uno de los retos consistiría en conseguir que el aumento de precio en las aspas resultantes sea menor que el
precio de la energía ‘extra’ que conseguiríamos con el uso de estas aspas.
Materiales auto-reparables
Otra posible forma de alargar la vida útil de los molinos, que está siendo investigada por el nanotecnólogo argentino Roberto Williams, fundador del Instituto de Investigaciones en Ciencia y Tecnología de
Materiales (Intema), de la ciudad de Mar del Plata, provincia de Buenos Aires (Argentina). La misma consiste
en agregar a la “fórmula” del material capsulitas de menos de una décima de milímetro con un componente
reactivo en su interior, un catalizador, que inmediatamente lo solidifica. Aunque ya se encuentra bajo investigación la creación de materiales autorreparables, su aplicación puntual en aspas de molinos no se encuentra
muy avanzada aún.
Aplicación de células fotovoltaicas nanométricas en paneles solares
Las células solares fotovoltaicas son dispositivos con los que se consigue transformar la energía de
la luz solar en energía eléctrica mediante la utilización de un material semiconductor que, en su versión más
extendida, es el silicio. En las placas fotovoltaicas comunes el material semiconductor está formado por átomos que tienen electrones orbitando alrededor del núcleo atómico en diferentes niveles de energía. Cuando
el semiconductor absorbe un fotón (partícula energética de la luz), un electrón adquiere la suficiente energía
como para liberarse de su órbita y moverse libremente. Así, cuando muchos fotones inciden sobre la placa, se
genera un movimiento de electrones que da lugar a la corriente eléctrica que se busca obtener.
El problema es que, en el mejor de los casos, las mejores placas comerciales tienen eficiencias bajas,
del orden del 14%, y el 86% restante de la energía lumínica que choca contra la placa se pierde en forma calor.
Aquí también la nanotecnología permite optimizar el rendimiento y la eficiencia, y esto se logra mediante el
desarrollo de celdas fotovoltaicas a escala nanométrica, utilizando otros materiales distintos del silicio.
Células nanotecnológicas basadas en arseniuro de galio
Un grupo de científicos del Imperial College, en Londres (Gran Bretaña), dirigido por el Dr. EkinsDauke, han conseguido eficiencias de hasta el 31,6%, contra el 14% normal utilizando nuevos materiales en
Nanotecnólogos por un día 2012
la construcción de celdas fotovoltaicas a escala nanométrica. Así, la energía extra producida por los nuevos
materiales, dobla la eficiencia de las células fotovoltaicas normales.
Las células fotovoltaicas desarrolladas por estos investigadores, están formadas por capas de un compuesto químico llamado arseniuro de galio (fórmula molecular: GaAs), entre las cuales hay pequeñísimos
huecos, de escala nanométrica, con propiedades cuánticas (denominados puntos cuánticos). Las diferentes
capas de arseniuro recogen luz de longitudes de onda distintas, cubriendo un espectro superior al de las placas
convencionales (que solo absorben algunas regiones del espectro de la luz solar). Además, los puntos cuánticos nanométricos “absorben la cantidad de luz extra que no se absorbería sólo con arseniuro”, explica el Dr.
Ekins-Dauke.
Obviamente, en el camino de la investigación para el desarrollo de mejores materiales con mayor eficiencia energética, existieron algunos obstáculos que el equipo de investigación inglés ha debido superar. Un
problema común de la nanotecnología fotovoltaica es la pérdida de fotones que, a su vez, merma la producción
de energía eléctrica. El grupo de investigación del Dr. Ekins-Dauke ha encontrado una solución para evitar que
los fotones se pierdan en las cavidades y entre los orificios nanométricos: poner un espejo detrás de la célula,
de manera que los fotones se proyecten de nuevo hacia el interior de la misma. Allí son de nuevo reabsorbidos,
para que contribuyan a la generación de corriente de salida.
Células nanotecnológicas híbridas
La aplicación de la nanotecnología y los puntos cuánticos también está siendo investigada por otros
grupos de investigación como el dirigido por el Dr. Juan Bisquert de la Universidad Jaume I de Castellón, España, quienes también buscan a través de la aplicación de células solares híbricas y orgánicas, una más eficaz
conversión de luz a electricidad en dispositivos duraderos. La versión más desarrollada de dichas células híbridas es la célula de titanio nanoestructurado sensibilizado con colorante (con el fin de mejorar sus propiedades
ópticas, es decir, mayor capacidad de absorción de fotones), las cuales toman como base una matriz porosa de
un óxido metálico resistente y barato, como dióxido de titanio (TiO2). Con partículas de éstos óxidos de unos
10 nanómetros de tamaño, se consigue un área interna gigantesca para realizar la conversión fotovoltaica.
Éstas células fotovoltaicas de tercera generación poseen una notable capacidad para captar radiación difusa o
de baja intensidad, y además, “los materiales utilizados para su son baratos y abundantes, el proceso de preparación es bastante sencillo, y el dispositivo es muy versátil para realizar configuraciones que se adapten a
diferentes necesidades”, afirma Bisquert.
Células nanotecnológicas basadas en grafeno
Dentro de este mismo campo de aplicación que es la energía fotovoltaica, otros grupos de investigación han apuntado al uso del grafeno en la optimización de los paneles, tales como el dirigido por el Dr.
Pablo Jarrillo-Herrero (Massachusetts Institute of Technology) y el equipo del profesor Dr. Yun Hang Hu
(Michigan Technological University).
Nanotecnólogos por un día 2012
El grafeno, al igual que los nanotubos de carbono, es una forma alotrópica del carbono. Está constituido por una estructura con forma de panal de dos dimensiones de átomos de carbono unidos covalentemente,
y posee propiedades muy interesantes tales como: elevada flexibilidad y dureza (casi similar al diamante),
siendo capaz de estirarse, de forma reversible, hasta un diez por ciento, ligereza, alta conductividad térmica
y eléctrica sin recalentarse (por lo que también podría aplicarse en otro tipo de componentes electrónicos), y
además es capaz de generar electricidad al ser alcanzado por la luz solar, algo sumamente importante para
la aplicación en energía fotovoltaica.
El grafeno podría utilizarse en células solares compuestas por una capa delgada de dióxido de titanio
(TiO2). Según investigaciones realizadas por el equipo del Dr. Jarrillo-Herrero, el grafeno, al calentarse con un
láser, produce en su extensión dos regiones con diferencia de temperatura, lo que hace que se genere una corriente eléctrica. Lo curioso (y útil) es que dicha reacción se produce también a temperatura ambiente, cuando
es expuesto a una luz no más intensa que la del mismo sol, y, mejor aún, es capaz de responder a un amplio
intervalo de longitudes de onda (en contraposición a los materiales habituales utilizados en paneles fotovoltaicos, que únicamente responden a longitudes de onda concretas o intervalos muy reducidos).
Por su parte, el grupo del profesor Yun Hang Hu, encontró que la adición de grafeno al dióxido de
titanio aumenta su conductividad, consiguiendo un 52,4 % más de corriente en el circuito. “La excelente conductividad eléctrica del grafeno se debe a su nanoestructura en forma de láminas, que les permite actuar como
puentes, lo que acelera la transferencia de electrones a partir del dióxido de titanio a los electrodos”, dijo Hu.
Conclusiones
En el presente escrito se ha presentado una porción diminuta de las posibles aplicaciones de la nanotecnología. Solamente en materia de energías renovables, es enorme el beneficio que pueden aportar estas
modificaciones u optimizaciones de tamaño nanométrico. Sin embargo, para que dichos avances tengan un
impacto considerable y global en el saneamiento y cuidado del medio ambiente, es necesario lograr en primer
lugar la aplicación masiva de los medios de obtención de energías renovables, así como la concientización y
difusión de la importancia de los avances tecnológicos positivos en el mundo.
Cuando el interés sobre los impresionantes avances de la ciencia a favor del cuidado del medio ambiente, la salud y el mundo en general por parte de gobiernos, empresas privadas y de la población coincida
en igual medida, la nanotecnología expresará todo su potencial. Mientras tanto, deberemos acostumbrarnos
a escuchar y leer en los medios masivos de comunicación, en forma cada vez más habitual, palabras y conceptos tales como “nanotecnología”, “nanociencias”, “nanodesarrollos”, “aplicaciones a escala nanométrica”,
“nanobots” y tantas otras del estilo, que nos irán marcando el rumbo y el avance de las nanotecnologías en la
vida diaria.
Bibliografía
Nanotecnólogos por un día 2012
• Charla “Nanotecnólogos por un día”, organizada por la Fundación Argentina de Nanotecnología, Ushuaia, 07/09/12, a cargo de la Dra. Vera Alvarez.
•
“Entrevista al Dr. Galo Soler Illia” - http://www.youtube.com/watch?v=kAbo_yYInrk [Visitado:
23/10/12]
• Cuberes Montserrat, Mª Teresa, 2006. “Nanotecnología: Actualidad y Futuro”, Boletín Informativo de
la Asociación de antiguos alumnos de la Escuela de Ingeniería Minera e Industrial de Almadén, Núm.
7, diciembre de 2006, en: http://www.uclm.es/cr/EUP-ALMADEN/aaaeupa/boletin_informativo/pdf/
boletines/7/NANOTECNOLOG%C3%8DA,%20ACTUALIDAD%20Y%20FUTURO.pdf [Visitado:
14/10/12]
• Francisco Guinea, “El grafeno y sus propiedades únicas”, Instituto de Ciencia de Materiales de Madrid ,
CSIC, España, en: http://www.youtube.com/watch?v=zc6vkLjnzM8 [Visitado 28/10/12]
• http://blogs.creamoselfuturo.com/nano-tecnologia/2010/02/05/la-nanotecnologia-llega-a-los-molinos-deviento/ [Visitado: 01/10/12]
• http://energia3.mecon.gov.ar/contenidos/verpagina.php?idpagina=2974 [Visitado: 23/10/12]
• http://energia3.mecon.gov.ar/contenidos/verpagina.php?idpagina=387 [Visitado: 23/10/12]
• http://engineering.case.edu/emac/news/Carbon-Nanotube-Reinforced [Visitado: 28/10/12]
• http://engineering.case.edu/PIRE-grant [Visitado: 28/10/12]
• http://es.wikipedia.org/wiki/Central_nuclear_Embalse#Producci.C3.B3n_energ.C3.A9tica [Visitado:
27/09/12]
• http://es.wikipedia.org/wiki/Energ%C3%ADa_mareomotriz [Visitado: 26/09/12]
• http://es.wikipedia.org/wiki/Generaci%C3%B3n_de_energ%C3%ADa_el%C3%A9ctrica [Visitado:
26/09/12]
• http://jarilloherrero.mit.edu/ [Visitado: 27/10/12]
• http://nanotubosdecarbono.com/ [Visitado: 28/10/12]
• http://periodismohumano.com/sociedad/memoria/%C2%BFcuan-verde-es-la-nanotecnologia.html [Visitado: 29/09/12]
• http://web.mit.edu/physics/people/faculty/jarillo-herrero_pablo.html [Visitado: 27/10/12]
• http://www.argentinaeolica.org.ar/portal/index.php?option=com_content&task=view&id=341&Item
id=45 [Visitado: 28/10/12]
Nanotecnólogos por un día 2012
• http://www.arqhys.com/arquitectura/materiales-compuestos-neoarquitectura.html [Visitado: 14/10/12]
• http://www.barricksudamerica.com/operaciones/generador_eolico.php [Visitado: 27/09/12]
• http://www.cader.org.ar/informes-y-estudios/caracterizacion-estadistica-de-recursos-eolicos-con-finesenergeticos.htm [Visitado: 28/10/12]
• http://www.cienciahoy.org.ar/hoy02/atucha.htm [Visitado: 23/10/12]
• http://www.es.globaltalentnews.com/actualidad/reportajes/2593/Aprovechar-al-maximo-la-energia-solar.
html [Visitado: 14/10/12]
• http://www.eurekalert.org/pub_releases/2012-04/mtu-gbe042412.php [Visitado: 27/10/12]
• http://www.gersol.unlu.edu.ar/ [Visitado: 14/10/12]
• http://www.greenpeace.org/argentina/Global/argentina/report/2006/3/energ-a-e-lica-en-argentina.pdf
[Visitado: 29/09/12]
• http://www.mapaeducativo.edu.ar/Atlas/energia-electrica [Visitado: 27/09/12]
• http://www.mtu.edu/materials/department/faculty/hu/ [Visitado: 27/10/12]
• http://www.na-sa.com.ar/centrales/atucha2 [Visitado: 14/10/12]
• http://www.nrgpatagonia.com/?page_id=6 [Visitado: 29/09/12]
• http://www.sj-solar.com.ar/node/124 [Visitado: 14/10/12]
• http://www.suelosolar.es/newsolares/newsol.asp?id=7113 [Visitado: 14/10/12]
• http://www.ucm.es/info/tuma/quimicas_union/index.html [Visitado: 28/10/12]
• http://www.uji.es/ES/noticies/detall&id_a=19177825 [Visitado: 14/10/12]
• http://www.universatil.com/modules/noticias/noticia.php?noticia=3271 [Visitado: 29/09/12]
• http://www.wisphysics.es/2010/10/la-fisica-del-grafeno [Visitado: 29/10/12]
• I.W. Frank, D.M. Tanenbaum, A.M. van der Zande y P.L. McEuen, “Mechanical properties of suspended
graphene sheets”, 2007. J. Vac. Sci. Technol. B 25 (6), Nov/Dec 2007, en: http://www.lassp.cornell.edu/
lassp_data/mceuen/homepage/Publications/JVSTB_Pushing_Graphene.pdf [Visitado: 29/10/12]
• José González Carmona, Mª Angeles Hernández Vozmediano y Francisco Guinea, “Electronica del
Grafeno”, Investigación y Ciencia, septiembre 2010, en: http://digital.csic.es/bitstream/10261/32750/1/
IyC-2010-Sept-Paco%20Guinea-1.pdf [Visitado: 29/10/12]
Nanotecnólogos por un día 2012
• Juan Bisquert, “Células solares de titanio nanoestructurado sensitivizado. Alternativas para la generación
fotovoltaica”, Junio de 2002, en: http://www.fotovoltaica.com/solarcell.pdf [Visitado: 28/10/12]
• Juan Bisquert, Células solares de plástico: la energía de colores, enero de 2010, en: http://www.elp.uji.es/
paperspdf/10%20EnRenov%20cel%20plastico.pdf [Visitado: 28/10/12]
• Nanoseries 1/5: ¿Qué es un nanotubo de carbono? En: http://www.youtube.com/watch?v=6k3U2rCOvVc
[Visitado: 28/10/12]
• Revista Futuros, Vol. 4, Núm. 14, 2006. “Energías renovables: ventajas y desventajas de la energía eólica”, en: http://www.revistafuturos.info/futuros14/energia_eolica.htm [Visitado: 27/09/12]
• Saravia, Luis R., 2007. “La energía solar en la Argentina”, Revista Petrotecnia, abril de 2007, en: http://
biblioteca.iapg.org.ar/ArchivosAdjuntos/Petrotecnia/2007-2/EnergiaSolar.pdf [Visitado: 14/10/12]
Nanotecnología, un mundo en miniatura.
Alumnos: Lucía Inés Castro, María Agustina Ganami, María de la Paz
Madariaga.
Escuela y Liceo Vocacional Sarmiento.
San Miguel de Tucumán, Tucumán.
Nanotecnólogos por un día 2012
El tamaño importa
Momento de definiciones…
El prefijo “nano” proviene del griego “enano” y significa pequeño. En física quiere decir una mil-millonésima.
Por lo tanto, un nanómetro es:
Una milmillonésima de metro = 1/1.000.000.000 m = 10-9 m lo que equivale a una millonésima de milímetro
= 1/1.000.000 mm = 10-6 mm
Dentro de un nanómetro caben aproximadamente diez átomos, puestos uno al lado del otro. Un nanómetro es
aproximadamente la distancia media que existe entre cinco átomos vecinos de cualquier sólido que podamos
encontrar en nuestro entorno. Una hoja de papel tiene aproximadamente 100,000 nm de espesor. Otros ejemplos
comparativos pueden observarse en la figura 1.
Figura 1. Comparación del tamaño de objetos pequeños conocidos.
Suele referirse a la escala nanométrica como “la escala que está en el medio”, ya que el mundo de las
nanopartículas se encuentra a mitad de camino entre nuestro mundo macroscópico y el mundo atómicocuántico. Las características y las leyes que rigen el “mundo nano” son una mezcla entre las leyes que rigen
ambos mundos, lo cual lo convierte en un campo absolutamente nuevo de investigación y trabajo, sobre el cual
los científicos del siglo XXI están poniendo especial atención.
Para poder imaginarnos qué magnitudes estamos manejando es necesario pensar maneras de controlar y
manipular objetos a escala nanométrica. Tengamos en cuenta que los objetos nanométricos son mil millones
de veces más chicos que nosotros y que esta relación equivale a la del diámetro de la Tierra y un caramelo.
Con esto queremos ilustrar la real dimensión de un nanómetro y lo difícil que resulta controlar estructuras de
este orden.
Nanotecnólogos por un día 2012
Figura 2. La diferencia de tamaños entre un hombre y una nanopartícula, en este caso
nanopartículas de óxido de zinc (vista microscópica), es la misma que entre el planeta
Tierra y un caramelo.
Cuando hablamos de materiales nanoparticulados nos referimos a aquellos cuyas pequeñas partículas tienen
un diámetro por debajo de los 100 nm en el caso que éstas sean esféricas; cuando se refiere a nanotubos o
nanohilos la dimensión mayor se considera de hasta 200 nm [European Comisión 2003].
Para caracterizar los nanomateriales se necesita algo más que referirse a su tamaño porque presentan
características inusuales fruto de la combinación entre los mundos macroscópico y atómico. A esta escala
las propiedades físicas, químicas y biológicas de los materiales difieren de las correspondientes a átomos
o moléculas y de la materia a gran escala. Con respecto a esto, Javier L. Amalvy dice: “Las características
únicas de los materiales nanoestructurados y sus propiedades mejoradas están determinadas por el tamaño,
la estructura de la superficie y las interacciones entre partículas. Puede afirmarse que el papel que juega el
tamaño en definir las propiedades finales de los materiales, es comparable al de la composición química”.
En el caso de los nanocompuestos, donde la escala de las nanopartículas es en nanómetros, se presenta una
elevada área de interfaz por unidad de volumen. Algo muy diferente pasa con los macrocompuestos, en la que
el material tomado en su mínima proporción, medido en micrómetros, presenta propiedades similares a la del
material a granel.
Cuando disminuimos el tamaño de las partículas aumenta la fracción en volumen de área de interfaz, produciendo
un mayor grado de interacciones que afectan las propiedades del material. Al reducir el tamaño de los elementos
cambia considerablemente el número de átomos superficiales. Es por ello que las características y las leyes que
rigen el mundo macroscópico no son siempre válidas para la escala nanométrica. Observamos, por ejemplo,
cambios en el punto de fusión de los elementos dependiendo del tamaño de las partículas; así también cambian
las propiedades ópticas, principalmente en el índice de refracción: debido a que las nanopartículas son más
pequeñas que la longitud de onda de la luz visible, la dispersión de la luz disminuye, dando como resultado
una claridad óptica mayor.
Nanotecnólogos por un día 2012
Cuando reducimos el tamaño de las partículas aparecen fenómenos propios de la física cuántica, que rige a
los átomos y moléculas, pero que posee leyes absolutamente diferentes a la física newtoniana, que gobierna el
mundo a escala macroscópica.
Figura 3. Cambio de color de las nanopartículas de seleniuero de
camdio dependiendo del tamaño.
Los diversos objetos que existen en la naturaleza presentan tamaños y formas distintas; algunos pueden verse
a simple vista, pero otros no. En el caso de las estructuras nanométricas, se debe recurrir a la obtención de
imágenes. Podemos decir entonces que los microscopios electrónicos son los ojos de la nanotecnología.
La diferencia fundamental entre los microscopios de luz que nosotras conocemos y los electrónicos es la
fuente de iluminación: mientras que un microscopio de luz utiliza un haz de luz, el microscopio electrónico
emplea un haz de electrones de muy corta longitud de onda que permite obtener una mayor resolución.
El concepto de resolución está relacionado con la capacidad de distinguir detalles finos en una imagen. Se
define como la distancia mínima a la cual podemos distinguir claramente dos puntos como entidades separadas.
Con buena iluminación, a 30 cm de distancia, el ojo humano puede distinguir dos puntos que estén separados
a una distancia mínima aproximada de 0,2 mm (si esta distancia es menor, no distinguimos los dos puntos y
los vemos como uno solo más grande; esto es lo que se llama poder de resolución del ojo humano). Con ayuda
de instrumentos ópticos, podemos llegar a distinguir detalles del orden de 200 nm. Este límite viene dado por
la naturaleza ondulatoria de la luz, ya que uno no puede distinguir objetos de tamaño menor al de la longitud
de onda de la radiación que utilizamos para iluminar. Con microscopios electrónicos se alcanzan a resolver
objetos del orden de las décimas de nanómetro, unidad conocida como angstrom, ya que la longitud de onda
de los electrones que se utilizan en los microscopios electrónicos es de alrededor de 0,5 ángstroms.
En el microscopio electrónico, un haz de electrones incide sobre una muestra y de la interacción de estos
electrones con los átomos de la misma, surgen señales que son captadas por algún detector o bien, proyectadas
directamente sobre alguna pantalla.
Microscopio óptico
Microscopio electrónico
Iluminación
Haz de luz
Haz de electrones
Longitud de onda
2000 Å - 7500 Å
0,037 Å - 0,086 Å
Lentes
Vidrio
Electromagnéticas
Medio
Atmósfera
Vacío
Resolución
2000 Å
3Å
Magnificación
10 x - 2000 x
100 x- 450000 x
Focalización
Mecánica
Eléctrica
Tabla I. Comparación microscopio óptico-microscopio electrónico
Nanotecnólogos por un día 2012
Todos los microscopios electrónicos cuentan con varios elementos básicos. Disponen de un cañón de electrones
que emite los electrones que chocan contra el espécimen, creando una imagen aumentada. Se utilizan lentes
magnéticas para crear campos que dirigen y enfocan el haz de electrones, ya que las lentes convencionales
utilizadas en los microscopios ópticos no funcionan con los electrones. El sistema de vacío es una parte muy
importante del microscopio electrónico debido a que los electrones pueden ser desviados por las moléculas del
aire, de forma que tiene que hacerse un vacío casi total en el interior de un microscopio de estas características.
Por último, todos los microscopios electrónicos cuentan con un sistema que registra o muestra la imagen que
producen los electrones.
Hay dos tipos básicos de microscopios electrónicos: el microscopio electrónico de transmisión (Transmission
Electron Microscope, TEM) y el microscopio electrónico de barrido (Scanning Electron Microscope, SEM).
Cada uno de ellos permite el estudio de diferentes características de una muestra: el SEM provee información
sobre morfología y características de la superficie, y con el TEM podemos observar la estructura interna y
detalles ultraestructurales.
Un poco de historia…
El concepto de nanotecnología, entendido como una disciplina ciéntifica, es algo flexible, que va construyéndose
de a poco a medida que se realizan nuevos estudios y experimentos. No se trata de algo cerrado, sino que
va creciendo de la mano con los avances que realizan los nanotecnólogos sobre ella. Sin embargo, cuando
nos referimos a su origen no podemos dejar de nombrar a Richard Feynman. Este científico pronunció una
conferencia seis años antes de ganar el Premio Nobel de Física (1959), con el título de “There is a plenty of room
at the bottom” (“Hay mucho espacio en el fondo”). En ella habló del problema de controlar objetos a una escala
muy pequeña, del tamaño de los propios átomos, abordando todo un nuevo campo de posibilidades. Feynman
afirmaba que manipular objetos en esta escala no contradecía ninguna ley física, por lo tanto era absolutamente
posible fabricarlos, y además abriría un rango muy amplio de nuevas propiedades en los materiales, que
podrían ser utilizadas para crear nuevas y mejores tecnologías. A pesar de que éste revolucionario físico ya
hablaba de la manipulación de objetos a escala nanométrica, tuvieron que pasar aproximadamente 30 años para
que empezaran a concretarse sus ideas. Esto se debe principalmente al hecho de que sus planteos significaban
algo técnicamente imposible para la época: no existían herramientas adecuadas para la construcción, manejo
y observación a nivel atómico o molecular.
El término “nanotecnología” fue acuñado recién en 1974, por N. Taniguchi, en un trabajo en el que planteaba
a la nanotecnología como la posibilidad de manipular materiales en la escala atómica o molecular, como
ya había hablado Feynman anteriormente. El término fue popularizado en 1986 en el libro de Eric Drexler
(Engines of Creation), donde propuso fabricar máquinas nanométricas que realicen masivamente productos
y objetos del tamaño y presición de un átomo. Esto provocó que se comenzara a pensar en la nanotecnología
como la “nueva revolución industrial”.
Hasta aquí nos hemos referido al origen de la nanotecnología dentro del campo científico, con los planteos e
ideas de Richard Feynman en el siglo XX. Sin embargo y aunque sea muy difícil creerlo, algunos nanomateriales
eran ya usados por antiguas civilizaciones, hace más de 2000 años.
Por ejemplo, podemos ubicarnos en Roma, aproximadamente en el siglo IV a.C. Los romanos fabricaron en
Nanotecnólogos por un día 2012
vidrio (sintetizado a partir de sales de metales y compuestos reductores) una copa de una belleza espectacular.
Representa una escena mitológica, en la que se ve como la diosa Gea transforma en viña a Lycurgus, rey
de los tracios y hombre violento, que sin pensarlo dos veces ataca a Dionisio y a Ambrosia, una protegida
del dios. La joven entonces, pide ayuda a la diosa de la tierra, quién castiga al rey atrapándolo con sus
ramas. Esta copa además de ser una obra de arte maravillosa es una pieza en la que podemos observar a la
nanotecnología en acción en plena Antigüedad. Bajo la luz del día la escena mitológica se ve en tonos verdes
y opacos, pero cuando recibe luz desde adentro adquiere un color totalmente diferente: los tonos oscuros
son reemplazados por coloraciones brillantes, tonos rojos y traslúcidos. Esto se debe nada menos que a la
presencia de nanopartículas de oro y plata que forman parte del material con el que fue fabricada, originadas
en el proceso de calentamiento que le da forma a la copa, siendo ellas las responsables de tan particulares
características y propiedades ópticas.
Figura 4. Copa de Licurgo. Izquierda: copa a la luz del día. Derecha: copa
alumbrada desde adentro.
Otro ejemplo de nanotecnología primitiva es el “azul maya”, un pigmento utilizado por esta ancestral civilización
americana en sus murales y artesanías con cerámica. Es llamativo como se mantiene el color azul intenso a lo
largo de los años, teniendo en cuenta que se trata de un colorante orgánico natural, obtenido a partir de plantas
tropicales. Este tipo de pigmentos suelen alterarse muy fácilmente por acción de diferentes agentes, como el
calor, la luz y otros elementos químico-ambientales, ya que están formados por moléculas muy sensibles. En
este caso, el color se mantiene inalterable gracias al procedimiento al que sometían al índigo obtenido de las
hojas: realizaban una especie de lavado con aguas arcillosas, donde abundaba un mineral llamado paligorskita.
El mineral formaba una red con huecos de tamaño nanométrico, donde quedaba atrapado el pigmento original.
De esta manera quedaba protegido y es así como llega a nosotros hoy en día.
Nanotecnólogos por un día 2012
Figura 5. Izquierda: mural maya. Derecha: pieza de cerámica maya. Imagen de Constantino Reyes Valerio
(Wikipedia).
Un poco más cerca de nuestra era, en el siglo XIX, tenemos al científico inglés Michael Faraday, quién
realizó los primeros estudios sobre coloides de oro. Estos coloides podían cambiar de color según cómo se los
preparasen. Faraday fue el primero en darse cuenta de que las tonalidades, que varían entre rojo y azul violáceo,
dependían del tamaño de las nanopartículas de oro disueltas en la solución; sin embargo los “soles” de oro
eran conocidos anteriormente por alquimistas y químicos del siglo XVI. Estos coloides se utilizaban también
como pigmentos, para la decoración de cerámicas por ejemplo. Este es el caso del “púrpura de Cassius”, que
se utiliza desde 1685. A su vez, Andreas Cassius había adaptado su procedimiento a uno ya conocido en el
siglo XV, mediante el cual obtenían vidrios de colores para colocar en los vitrales de las iglesias medievales.
Figura 6. Izquierda: Michael Faraday. Derecha: cambio de color de las nanopartículas de
oro dependiendo del tamaño.
Nano en la naturaleza…
Como vimos anteriormente, la nanotecnología no es un invento del siglo XXI sino que ha sido utilizada por
hombres a lo largo de la historia, accidentalmente y sin real conocimiento de sus propiedades y posibles
aplicaciones.
Sin embargo, tampoco podemos hablar de la nanotecnología como un invento del hombre, ya que los efectos
producidos por la acción de nanopartículas se ven reflejados tanto en fenómenos naturales como en las
estructuras y funcionamiento de los seres vivos.
La belleza de fenómenos naturales que admiramos diariamente es producto de la intervención de nanopartículas.
Uno de ellos es, aunque nos cueste creerlo, la puesta de sol que podemos disfrutar habitualmente. Los colores
que presenta se deben a la gran cantidad de partículas nanométricas que se encuentran dispersas en la atmósfera
Nanotecnólogos por un día 2012
y que tienen la capacidad de difractar la luz de distintas maneras.
Figura 7. Izquierda: Colonia del Sacramento, Uruguay. Derecha: San Pedro de Colalao,
Tucumán (fotografías tomadas por las alumnas).
Fenómenos físicos similares suceden en las alas de algunas mariposas y otros muchos colores de la naturaleza,
como por ejemplo el de la concha de Paua, originaria de Nueva Zelanda, formada por varias capas separadas
por algunos nanómetros. Esto da como resultado unos colores muy atractivos, ya que la luz se difracta
en diferentes direcciones. Estas conchas son utilizadas, debido a su rareza y extraordinaria belleza, en la
fabricación de joyas y ornamentos.
Figura 8. Izquierda: mariposas características de la fauna de la Selva Misionera (fotografía tomada por las
alumnas). Derecha: Concha de Paua.
Nanomedicina: nanotecnología al servicio de la salud
Teniendo en cuenta todas las propiedades de los nanomateriales y sus beneficios, lógicamente nos preguntamos
qué función podemos otorgarle a la nanotecnología, de manera que podamos aprovecharla en su máximo
potencial. De esta manera, y teniendo en cuenta nuestro interés en el progreso y bienestar del hombre, buscamos
averiguar cómo puede ayudarnos la nanotecnología en la medicina.
La nanoescala es donde tienen lugar los procesos fisicoquímicos de interacción de biomoléculas, lo que
significa que la capacidad de manipular objetos y estructuras en esta escala nos permite animarnos a combatir y
enfrentar enfermedades a nivel molecular. Según Galo Soler Illia, la intención de la nanomedicina es prevenir,
tratar o revertir estos procesos al mismo nivel en que los trabaja la Naturaleza. Con este nuevo sistema de
Nanotecnólogos por un día 2012
detección y tratamiento de enfermedades que intentamos promover, el cuidado de la salud se revolucionaría
totalmente.
La nanotecnología nos abre un gran rango de soluciones y posibilidades dentro de la medicina, las cuales
podemos agrupar en cuatro áreas: detección temprana de enfermedades, diagnóstico por imágenes,
administración dirigida y controlada de medicamentos y medicina regenerativa. Como puede observarse,
es un área de amplias aptitudes, en donde entran casos como la detección y rápida y eficiente identificación
de pequeñas porciones de ADN, proteínas, lípidos, sacáridos o incluso de biomoléculas en sangre, gracias
a nanosensores circulando en el sistema sanguíneo; utilización de estructuras a escala nano capaces de
diferenciar y destruir selectivamente células cancerígenas o microorganismos; y una especie de nanonaves a
fin de transportar, administrar, liberar y distribuir fármacos en nuestro organismo de manera más controlada,
logrando así reducir la dosis de droga que se consume a diario; etc.
Una aplicación específica de nanoestructuras en el área de la medicina es el caso de los nanosensores de
glucosa. La diabetes es una enfermedad crónica que afecta distintos tejidos del cuerpo y se caracteriza por
la hipoglucemia, un aumento de glucosa en sangre. En la actualidad es padecida por muchos seres humanos
y se prevé que en el futuro la padecerán muchos más. Requiere de un estricto control alimentario y medidas
periódicas de los niveles de glucosa en sangre. Estas medidas son complicadas y molestas para el enfermo. Un
medidor continuo de glucosa podría ser la base del sistema microelectrónico de un “páncreas” artificial, que
produjera insulina sólo cuando fuera necesaria.
Actualmente, se está investigando el desarrollo de un nuevo tipo de sensor de glucosa nanotecnológico que
utiliza nanohilos para medir en vivo y de forma continua la cantidad de glucosa en sangre. El biosensor puede
implantarse fácilmente en el paciente y puede sustituir a las medidas tradicionales del “gota a gota” de la glucosa. Se espera que el nuevo avance haga más soportable la convivencia con la diabetes (especialmente para
niños y ancianos).
Figura 9. Nanohilos de silicio en el campo biológico.
Experiencia de laboratorio
Fabricación de nanoestructuras: nanohilos aplicables en la nanomedicina
Como parte de este trabajo de investigación, junto a nuestra tutora fabricamos nanoestructuras de ZnO en el
“Laboratorio de Nanomateriales y Propiedades Dieléctricas de la Materia” del Departamento de Física de la
Facultad de Ciencias Exactas y Tecnología de la Universidad Nacional de Tucumán, del cual ella es miembro.
Nanotecnólogos por un día 2012
Procedimiento y materiales empleados:
Para la obtención de nanohilos empleamos una técnica denominada “Deposición electroforética”, en la cual
partículas que se encuentran disueltas en un solvente son depositadas sobre un sustrato mediante la aplicación
de un campo eléctrico. Utilizamos una suspensión coloidal de nanopartículas de ZnO (1), sustratos de silicio
con nanoclusters de oro incorporados (2), una celda de deposición de acrílico con un electrodo de platino
(3), una fuente de tensión (4), un amperímetro para medir las corrientes que circulan por el circuito (5) y un
cronómetro para medir el tiempo de la deposición (6).
(1)
(4)
(2)
(3)
(5)
(6)
Figura 10. Materiales utilizados en la fabricación de nanohilos.
Con todos estos materiales e instrumentos, armamos el circuito mostrado en la figura 11.
Figura 11. Circuito utilizado para llevar a cabo las deposiciones.
Muestras fabricadas por el grupo de investigación del laboratorio:
Nuestra tutora nos mostró los resultados obtenidos para tres de las muestras que obtuvo junto a su grupo de
investigación. Éstas fueron fabricadas con el mismo procedimiento, manteniendo constante dos variables: la
diferencia de potencial entre electrodos (40,0 V) y la distancia entre electrodos (7mm); y en las cuales fueron
modificando el tiempo de cada deposición.
Nanotecnólogos por un día 2012
Diferencia de
potencial entre
electrodos (V)
40,0
40,0
40,0
Distancia entre
electrodos
7 mm
7 mm
7 mm
30
60
120
Tiempo de
deposición
Imagen
Tabla II. Parámetros de las deposiciones e imágenes del SEM obtenidas para las tres muestras fabricadas
por el grupo de investigación del Laboratorio.
Como podemos observar en las imágenes tomadas usando el microscopio electrónico de barrido, el tiempo
ideal de deposición, manteniendo constante las otras dos variables, es de 60 minutos. En esta muestra podemos
ver los nanohilos bien diferenciados, a diferencia de la primera y tercera muestra.
Muestras fabricadas por las alumnas:
Partiendo de esta base, nuestro trabajo de investigación consistió en investigar cómo se modifican las
nanoestructuras obtenidas si se cambia la distancia entre electrodos. Para ello, mantuvimos constante la
diferencia de potencial entre electrodos, siempre igual a 40,0 V, y el tiempo de deposición en 60 minutos. La
variable que modificamos es la de distancia entre electrodos, realizando una primera deposición colocando los
electrodos a una distancia de 5 mm, y una segunda a 9 mm de separación.
Parámetros de la primera deposición:
Diferencia de potencial entre electrodos = 40,0 V
Distancia entre electrodos = 5 mm
Tiempo de deposición = 60 min
Parámetros de la segunda deposición:
Diferencia de potencial entre electrodos = 40,0 V
Distancia entre electrodos = 9 mm
Tiempo de deposición = 60 min
Nanotecnólogos por un día 2012
Observando en el microscopio electrónico estas dos muestras fabricadas por nosotras, obtuvimos las siguientes
imágenes:
Figura 12. Imagen SEM de nanohilos de ZnO. Distancia entre electrodos = 5mm.
(Muestra fabricada por las alumnas)
Figura 13. Imagen SEM de nanohilos de Zn0. Distancia entre electrodos = 9mm.
(Muestra fabricada por las alumnas)
Comparando estas imágenes con la correspondiente a la muestra obtenida por el grupo de investigación para
una hora de deposición, concluimos que la distancia ideal entre los electrodos es de 7 mm, para una diferencia
de tensión de 40,0 V y tiempo de deposición de 60 minutos.
Nanotecnólogos por un día 2012
Fotografías tomadas durante la fabricación de nanoestructuras
Nanotecnología en tratamientos térmicos de los
aceros.
Alumno: Marcos Javier Zúñiga
E.T. N° 32 D.E. 14
“Gral. José de San Martín”
Capital Federal
Nanotecnólogos por un día 2012
1 - Introducción
El día 25 de julio del corriente año el profesor Martín Célico comentó durante su clase acerca del proyecto
“Nanotecnólogo por un día”, sus implicaciones, y su decisión de tomar la monografía de dicho proyecto como
nota para el trimestre, además de enviarla a la F.A.N. (Fundación Argentina de Nanotecnología) para que cada
alumno pudiera participar del proyecto “Nanotecnólogo por un día”.
Esta monografía está orientada a las generalidades de la nanotecnología,las nanopartículas, en especial los
nanotubos de carbono, y debido a mis conocimientos sobre metalurgia, la posible aplicación de nanotubos de
carbono en el tratamiento térmico de cementación.
2 – Nanotecnología
2.1 - Definición
La nanotecnología es uno de los campos de investigación científica y tecnológica, tal vez no más recientes,
pero si más extensos y prometedores del siglo XXI. Es por esto que no existe una única definición para este
campo de investigación. A continuación, desarrollaremos algunas de ellas:
• La nanotecnología como el estudio, diseño, creación, síntesis, manipulación y aplicación de materiales,
aparatos y sistemas funcionales a través del control de la materia a nano escala, y la exploración de
las propiedades de la materia a nanoescala, es decir, a nivel de átomos y moléculas (nanomateriales).
• En su sentido original “la nanotecnología como la nueva revolución industrial” se refiere a la
nanotecnología como la capacidad de construir productos complejos, basados en máquinas moleculares
que son capaces de controlar procesos de producción y fabricación a nivel atómico.
• Son las creaciones del hombre cuyo tamaño se encuentra entre 1 nm y 100 nm.
Una de las actuales metas de la nanotecnología es la creación de nuevas estructuras y productos que tendrían
un gran impacto en la industria, la medicina, las actividades cotidianas, las energías renovables, entre otras.
Pero la mayoría de estos proyectos aún están en fase de investigación, como en el caso de la medicina donde se
investiga si habrá posibles efectos secundarios o complicaciones debido al uso de, por ejemplo, nanomáquinas
para realizar cirugías de alto riesgo en zonas delicadas como el cerebro humano.
2.2 - Historia
El tema de la nanotecnología fue propuesto por primera vez por el físico Richard Feynman en una conferencia
impartida el 29 de diciembre de 1959 en el Caltech (Instituto Tecnológico de California) titulada “Plenty of
Room at the Bottom“(Hay mucho lugar en el fondo). En esta conferencia realizó la pregunta “Why cannot
we write the entire 24 volumes of the Encyclopedia Brittanica on the head of a pin?” (¿Por qué no podemos
escribir los 24 volúmenes completos de la Enciclopedia Británica en la cabeza de un alfiler?). Sin embargo, en
Nanotecnólogos por un día 2012
ese momento no le era posible realizar su idea debido a que la tecnología no había evolucionado lo suficiente.
Luego en el año 1974 el científico japonés N. Taniguchi acuñó el término “nanotecnología” como la ciencia
que brindaría la posibilidad de separar, consolidar y deformar materiales en nanoescala. Más tarde, en 1981
Gerd Binning y Heinrich Rohrer crearon el microscopio de efecto túnel, el cual permitió revelar la estructura
atómica de las partículas. Y en la actualidad se continúa investigando acerca de este campo de la ciencia y la
tecnología.
2.3 - Unidades de medición
El nanómetro (nm), como su nombre lo dice, es una unidad derivada del metro (m). Éste equivale a la
milmillonésima parte de un metro, la millonésima parte de un centímetro (cm), y también equivale a la longitud
de diez átomos en fila.
Algunos ejemplos útiles para la comprensión del tamaño de un nanómetro son:
• Un cabello humano mide aproximadamente 100.000 nm.
• Si una gaviota aterrizara sobre la cubierta de un portaaviones, éste se hundiría alrededor de un
nanómetro.
• El ADN tiene un tamaño de 2 nm.
2.4 - Nanopropiedades
Al explorar este “nuevo mundo” a tan pequeña escala se descubren fenómenos y propiedades totalmente
nuevos, debido a que cambian las propiedades intensivas de todos los elementos y las fuerzas y energías que
los afectan. Es por esto, que los científicos utilizan la nanotecnología para crear materiales, aparatos y sistemas
Nanotecnólogos por un día 2012
novedosos.
Como dijimos antes, en esta escala las fuerzas y energías significativas son otras. En la escala macrométrica
las fuerzas y energías dominantes son la gravedad, fricción y combustión, pero en la nanoescala las fuerzas y
energías a tener en cuenta son:
• Electrostática: área de la física que se encarga de estudiar fenómenos asociados a cargas eléctricas en
reposo.
• Dispersión (Van der Waals): las fuerzas de dispersión de London son fuerzas intermoleculares débiles
que surgen de fuerzas interactivas entre multipolos temporales en moléculas sin momento multipolar
permanente, éstas son más débiles en el vacío y aumentan con el tamaño.
• Movimiento Browniano: es el movimiento aleatorio que se observa en algunas partículas microscópicas que se hallan en un medio fluido.
• Cuántica: rama de la física que explica el comportamiento de la materia
y la energía mediante el estudio del comportamiento de la materia cuando las dimensiones de ésta son extremadamente pequeñas, alrededor
de 1.000 átomos. Empiezan a notarse efectos como la imposibilidad
de conocer con exactitud la posición de una partícula, o su energía, o
conocer simultáneamente su posición y velocidad, sin afectar a la propia partícula.
•
Magnética: fenómeno físico por el que los materiales ejercen fuerzas de atracción o repulsión sobre
otros materiales.
3 - Nanomateriales
Existe gran cantidad de nanomateriales, cada uno de ellos con diferentes propiedades. A continuación se nombraran algunas de las clasificaciones de los nanomateriales:
• Nanocompuestos:Se trata de materiales creados introduciendo, en bajo porcentaje, nanopartículas en un
material base llamado matriz. Los nanocompuestos combinan las nanopartículas con otras nanopartículas o con materiales de mayor tamaño. Con el resultado se obtiene materiales con propiedades distintas a
las de los materiales constituyentes. Por ejemplo en propiedades mecánicas (como la rigidez y la resistencia). Los nanopolímeros son usados para relleno de grietas en estructuras afectas por sismos, por ejemplo.
Nanotecnólogos por un día 2012
• Nanopartículas: Se trata de partículas muy pequeñas con al menos una dimensión menor de los 100 nm.
• Nanotubos: Son estructuras tubulares con diámetro nanométrico. Existen nanotubos de muchos materiales, tales como silicio o nitruro de boro pero, generalmente, el término se aplica a los nanotubos de carbono. Son tipo canuto o de
tubos concéntricos (o multicapa). Algunos están cerrados por media esfera de
fulereno (o fullereno), una forma estable del carbono, del nivel siguiente al del diamante y el grafito.
Los nanotubos suelen presentar una elevada relación longitud/radio, ya que el radio suele ser inferior
a un par de nanómetros y, sin embargo, la longitud puede llegar a ser incluso de 105 nm. Debido a esta
característica se pueden considerar como unidimensionales.
• Superficies nanomoduladas: Son ordenadas o multicapa.
• Materiales nanoporosos: Los materiales nanoporosos vendrían a ser como
esponjas pero con poros nanométricos, materiales en donde los poros ocupan una gran fracción de su volumen total y presentan una significativa
cantidad de superficie por gramo.Un material tan poroso en un área lo tan
pequeña posible sirve para, por un lado, porque muchas reacciones ocurren
más rápido sobre determinadas superficies, y por otro, porque podemos rellenar los poros con lo que queramos: polímeros, metales o diferentes tipos de moléculas lo que lleva
a descubrir peculiares comportamientos del material. Esta posibilidad de combinación de materiales
abre las puertas a una variedad asombrosa de aplicaciones.
• Nanocapas: Se trata de recubrimientos con espesores de nanoescala. Son usados en barnices, lubricantes o para endurecer compuestos frágiles o como protección ante la corrosión.
• Nanoestructuras biológicas: Materiales biomiméticos a escala nanométrica. Como polímeros usados como base para el crecimiento de la piel. O gomas antimicrobianas.
• Nanocapsulas: La mayor aplicación de las nanocápsulas está sin duda en el campo de la medicina, ya sea para combatir enfermedades o ayudar con la liberación de fármacos en puntos específicos dentro del cuerpo humano. Además el desarrollo de las nanocápsulas se enfoca en intervenir
las mismas para que se acumulen en un punto deseado, la principal vía para lograr este objetivo
es posiblemente modificar las propiedades físico-químicas de las nanocápsulas. La investigación
acerca de las nanocápsulas aspira solucionar los problemas que aparecen, como son los efectos secundarios de los fármacos además de complicaciones en el tratamiento de la enfermedad.
Nanotecnólogos por un día 2012
• Nanofibras: Una nanofibra es una fibra con diámetro menor a 500 nanómetros. Desde hace tiempo se han venido produciendo fibras de carbono con
este material, la cuales se utilizan para fabricar implementos deportivos
como palos de golf, cañas de pescar, para elaborar ciertas partes de bólidos de fórmula uno o incluso para diferentes partes aviones de combate.
• Nanohilos: Un nanohilo es un cable con un diámetro del orden de un nanómetro. Los nanohilos pueden ser definidos como estructuras que tienen un tamaño
lateral restringido a diez o menos nanómetros por lo general. Los nanohilos
debido a su relación longitud–ancho han sido considerados como materiales
unidimensionales, por lo que presentan llamativas propiedades que no se han
visto en materiales de 3 dimensiones, ya que en estos nanohilos no se producen
efectos físicos cuánticos en los bordes. Por ello también se los llama hilos cuánticos. Existen varios
tipos de nanohilos.
• Basados en carbono: Estos nanomateriales están compuestos mayoritariamente por carbono y suelen
adoptar formas como esferas huecas, elipsoides o tubos. Los nanomateriales de carbono con forma
elipsoidal o esférica se conocen como fullerenos, mientras que los cilíndricos reciben el nombre de
nanotubos. Estas partículas tienen muchas aplicaciones posibles, incluido el desarrollo de recubrimientos y películas mejoradas, materiales más ligeros y resistentes y diversas aplicaciones en el campo
de la electrónica.
• Basados en metales: Estos nanomateriales incluyen puntos cuánticos, nanopartículas de oro y plata y
óxidos metálicos como el dióxido de titanio.
• Dendrímeros: Estos nanomateriales son polímeros de tamaño nanométrico construidos a partir de
unidades ramificadas. La superficie de un dendrímero tiene numerosos extremos de cadena, que se
pueden adaptar para desempeñar funciones químicas específicas. Esta propiedad se podría utilizar
también para la catálisis.
3.1 - Nanotubos de carbono
Ahora se hará hincapié en los nanotubos de carbono debido a que probablemente representan hasta ahora el más importante producto derivado de la investigación de fulereno y su importancia para una posible investigación para
mejorar el tratamiento térmico de cementación.
Nanotecnólogos por un día 2012
3.1.1 - Forma
Los nanotubos se componen de una o varias láminas de grafito u otro material enrolladas sobre sí mismas.
Algunos nanotubos están cerrados por media esfera de fullerene, y otros no están cerrados. Existen nanotubos
monocapa (un sólo tubo) y multicapa (varios tubos metidos uno dentro de otro). Los nanotubos de una sola
capa se llaman “single wall nanotubes” (SWNTs) y los de varias capas, “multiple wall nanotubes” (MWNTs).
Los nanotubos suelen presentar una elevada relación longitud-radio, ya que el radio suele ser inferior a un par
de nanómetros y, sin embargo, la longitud puede llegar a ser incluso de 105 nm. Debido a esta característica se
pueden considerar como unidimensionales.
3.1.2 - Propiedades eléctricas
Los nanotubos se caracterizan por presentar una gran complejidad electrónica, si tenemos en cuenta las reglas
cuánticas que rigen la conductividad eléctrica con el tamaño y la geometría de éstos. Estas estructuras pueden
comportarse, desde un punto de vista eléctrico, en un amplio margen de comportamiento, comenzando por
el comportamiento semiconductor hasta presentar, en algunos casos, superconductividad. Este amplio margen de conductividades viene dado por relaciones fundamentalmente geométricas, es decir, en función de su
diámetro, torsión (quiralidad) y el número de capas de su composición. Así, por ejemplo, existen nanotubos
rectos (armchair y zigzag) en los que las disposiciones hexagonales, en las partes extremas del tubo, son
siempre paralelas al eje. Esta distribución, en función del diámetro, permite que dos tercios de los nanotubos
no quirales sean conductores y el resto semiconductores. En el caso de los nanotubos quirales, los hexágonos
tienen un cierto ángulo con respecto al eje del tubo, es decir, la distribución de los hexágonos laterales que
conforman la estructura presenta con respecto al eje central del tubo un enrollamiento de carácter helicoide.
Este tipo de conformación dificulta el paso de los electrones a los estados o bandas de conducción, por lo que,
aproximadamente, tan sólo un tercio de los nanotubos presenta conducción apreciable y siempre en función
del ángulo de torsión.
3.1.3 - Propiedades mecánicas
La estabilidad y robustez de los enlaces entre los átomos de carbono, del tipo sp2, les proporciona la capacidad
de ser la fibra más resistente que se puede fabricar hoy día. Por otro lado, frente a esfuerzos de deformación
muy intensos son capaces de deformarse notablemente y de mantenerse en un régimen elástico. El módulo
de Young de los nanotubos podría llegar a oscilar entre 1,3 y 1,8 terapascales, si bien hasta la fecha sólo se
han podido obtener experimentalmente hasta los 0,8 TPa. Además, estas propiedades mecánicas podrían mejorarse: por ejemplo en los SWNTs (Single Walled NanoTubes o Nanotubos de pared simple), uniendo varios
nanotubos en haces o cuerdas. De esta forma, aunque se rompiese un nanotubo, como se comportan como
unidades independientes, la fractura no se propagaría a los otros colindantes. En otros términos, los nanotubos
pueden funcionar como resortes extremadamente firmes ante pequeños esfuerzos y, frente a cargas mayores,
Nanotecnólogos por un día 2012
pueden deformarse drásticamente y volver posteriormente a su forma original.
3.1.4 - Propiedades térmica
Algunos modelos predicen que la conductividad térmica de los nanotubos puede llegar a ser tan alta como
6.000 W/mK a temperatura ambiente (téngase en cuenta, por comparar con otra forma alotrópica del carbono,
que el diamante casi puro transmite 3.320 W/mK). Asimismo son enormemente estables térmicamente, siendo
aún estables a 2.800 °C en el vacío y a 750 °C en el aire (mientras que los alambres metálicos en microchip
se funden entre 600 y 1.000 °C). Las propiedades de los nanotubos pueden modificarse encapsulando metales
en su interior, o incluso gases. En este sentido, serían unos extraordinarios almacenes de hidrógeno. Como se
sabe, uno de los principales problemas técnicos para el desarrollo de las pilas de combustible es el almacenaje
de este elemento.
4 - Conclusiones
Como resultado de la investigación que el autor ha realizado, este ha llegado a las siguientes conclusiones:
I.
II.
III.
La nanotecnología si bien no es una ciencia nueva, es un área no muy conocida de investigación, que
abre las puertas a un “nuevo mundo” a nano escala donde las propiedades de todos los elementos cambian respecto a la macro escala a la cual estamos acostumbrados.
Existe gran variedad de nanopartículas con diferentes propiedades y aplicaciones.
Los nanotubos de carbono son nanopartículas que ofrecen mejoras a los materiales en que se aplican
en cuanto a su dureza, resistencia, maleabilidad, conductividad eléctrica y resistencia térmica.
5 - Notas
Gracias a la información presentada anteriormente y mis conocimientos en metalurgia creo que la investigación sobre la aplicación de nanotubos de carbono (u otras nanopartículas que desconozco) en el proceso de
cementación de los aceros podría mejorar la dureza, resistencia, tenacidad, capa cementada y (gracias a los
nanotubos de carbono) posiblemente la maleabilidad de las piezas cementadas. Para conocer como se podría
mejorar este proceso desarrollare un poco sobre él:
5.1 - Motivo de la cementación
La cementación es un tratamiento termoquímico de difusión aplicado a aceros que requieran las siguientes
propiedades:
• Alta dureza superficial - para resistir al degaste.
• Alta tenacidad en el núcleo - para resistir los impactos.
Nanotecnólogos por un día 2012
• Alta resistencia a la fatiga - para resistir los esfuerzos consecuencia de flexión alternativa.
5.2 - Aceros aptos
Se utilizan los aceros entre el SAE 1010 y SAE 1030 (según normas IRAM) comercialmente denominados
“aceros para cementación” y su elección debe ser rigurosamente analizada, sobre todo en función de las
propiedades requeridas por la pieza. El Espesor de la capa cementada oscila de 0,2 a 1,5 mm. El porcentaje
de carbono de la capa cementada es del orden del 0,9%. Con estos porcentajes y luego del temple se consiguen
durezas equivalentes entre 62 y 65 Rockwell-C.
5.3 - Proceso de cementación
A. Normalizado: Previo a la cementación. Tiene por objetivo obtener un producto homogéneo con adecuada
recristalización y resistencia moderada.
B. Cementación: a temperaturas entre 850 y 950°C. Según el dispositivo que se utilice la cementación puede
ser:
I.
Sólido: Se cementa con carbón que rodea a la pieza en un recipiente cerrado, el cual se calienta
a la temperatura adecuada durante el tiempo requerido y luego se enfría con lentitud.
II.
Gas: Es más eficiente que el anterior, los ciclos son más controlados, el calentamiento más
uniforme, es más limpio y requiere de menos espacio. La pieza se calienta en contacto con CO
y/o un hidrocarburo, que fácilmente se descompone a la temperatura de cementación.
III.
Líquido: Se cementa colocando las piezas en baños de mezclas de sales fundidas (cianuro), de
modo que el carbono difunde desde el baño hacia el interior del metal. Produce una capa más
profunda, más rica en C y menos N, es semi continuo.
C. Temple: Existen tres tipos de temple:
1) En agua, los de la serie 10XX y 11XX.
2) En aceite, la gran mayoría, como por ejemplo los de las serie 15XX, 40XX, 4118, 4320.
3) Los de enfriamiento lento, como son los 4320, 48XX, 4720.
D. Revenido: Una pieza templada resulta ser dura pero frágil, para darle una tenacidad suficiente y poder
darle un uso normal se efectúa después del temple un revenido. Las etapas de un revenido son:
Nanotecnólogos por un día 2012
I.
Calentamiento del material a una temperatura prefijada.
II.
Mantenimiento del material durante un cierto tiempo a la temperatura anterior.
III.
Enfriamiento lento hasta la temperatura ambiente a una velocidad determinada.
EVOLUCION DE LAS DUREZAS DE UN ACERO DURANTE EL PROCESO
POSICION
Normalizado
Cementado
Calentamiento
para Difusión
Temple
Revenido
Superficie
Capa cementada
15 RC
30 RC
29 RC
65 RC
No Existe
27 RC
29 RC
62 RC
62 RC
58 RC
Capa intermedia
No Existe
25 RC
26 RC
54 RC
50RC
20 RC
20 RC
20 RC
30 RC
28 RC
Núcleo
Capa
Saturada
0.8 %C
Total o
efectiva
500 HV
5.4 – Aplicación de nanotubos de carbono en cementación
Este proyecto consistiría en utilizar no solo carbón durante la cementación sino también nanotubos de carbono, o solo nanotubos de carbono, el pequeño tamaño de éstas les permitiría penetrar aún más en la pieza
a cementar aumentando la capa de cementación, por lo que aumentaría también la dureza final de la pieza.
Además podría haber otras mejoras inesperadas que favorecerían aún más el proceso según el tipo o cantidad
de nanotubos de carbono que se apliquen, u otros nanomateriales.
6 - Bibliografia
• Página web: http://www.its.caltech.edu/~feynman/plenty.html
• Libro de Galo Soler Illia, “Nanotecnología. El desafío del siglo XXI”. Editorial: Eudeba. Colección
Ciencia Joven 38
• Página web: http://es.wikipedia.org/wiki/Nanotecnología.html
• Nanotecnología, Y cómo afectará al mundo. Autores: Alex Pokrovsky y Alan Smith. Traducción:
Mariela Belloso
• Página web: http://es.wikipedia.org/wiki/Magnetismo
• Página web: http://es.wikipedia.org/wiki/Mecánica_cuántica
• Página web: http://www.cienciapopular.com/n/Ciencia/Fisica_Cuantica/Fisica_Cuantica.php
• Página web: http://es.wikipedia.org/wiki/Movimiento_browniano
• Página web: http://es.wikipedia.org/wiki/Fuerzas_de_Van_der_Waals
• Página web: http://www.hverdugo.cl/conceptos/conceptos/electrostatica.pdf
Nanotecnólogos por un día 2012
• Página web: http://es.wikipedia.org/wiki/Nanotubo
• Página web: http://www.monografias.com/trabajos82/nanotubos-carbono/nanotubos-carbono.shtml
• Apunte tema 7 “Metalografía y Tratamientos Térmicos de Aceros” del taller de “Laboratorio de
Ensayos Metalográficos” de la Escuela Técnica N°32 D.E. N°14 “Gral. José de San Martín”
• Página web: http://boletin-noticias-nanotecnologia.euroresidentes.com/2007/03/clasificacin-denanomateriales.html
• Página web: http://www.monografias.com/trabajos90/nanotecnologia-nanomateriales-y-susaplicaciones/nanotecnologia-nanomateriales-y-sus-aplicaciones.shtml
• Página web: http://es.wikipedia.org/wiki/Nanotubo
Nanotecnólogos por un día 2012
Salud bucal - Forma de combatir caries.
Alumno: Maria Daniela Manrrique
Emilio Civit 4-003 “ETIEC”
Mendoza
Nanotecnólogos por un día 2012
Esta iniciativa parte de formas simples de combatir caries, como introducción de distintas moléculas en determinados productos para la prevención de las mismas.
Estos productos pueden partir desde un chicle, enjuagues bucales, baños de flúor, dentífricos, etcétera.
Una de las sustancias químicas empleadas en el nuevo mecanismo es el xilitol.
El xilitol es una molécula natural compuesta por carbonos, que se puede encontrar en distintas variedades de
frutas y verduras; y comercialmente se obtiene de la madera del “abedul”. El mismo presenta una acción anti
caries, lo cual es muy beneficiosa; ya que produce los ácidos orgánicos sobre todo acido láctico que ataca al
tejido.
Los tejidos de las placas dentarias se descalcifican provocando una fisura. Otros problemas muy comunes
son las manchas en el esmalte: esto se debe a la alteración de la composición química de la apatita que es un
compuesto selectivo que colorea indeleblemente toda la superficie del esmalte y la dentina. (nota: la dentina
es el principal tejido formador del diente).
Factores que producen caries:
Varios factores pueden producir la caries dental. La principal causa es una alimentación rica en azúcares
que ayudan a las bacterias a corroer el esmalte, aunque, dependiendo del tipo de azúcar, su incidencia varía.
Otras causas son una mala higiene dental, la ausencia de flúor en el agua y la propia genética, que como se
ha demostrado provoca la aparición de caries en algunos niños especialmente sensibles a pesar de seguir
unos hábitos profilácticos correctos.
Si bien la bacteria S. mutans es la principal responsable de la caries, se han encontrado otros factores que
también muestran una inesperada correlación con este problema: complicaciones durante el embarazo o el
parto, nacimiento prematuro o por cesárea, diabetes materna, enfermedades renales, incompatibilidades del
Rh, alergias, gastroenteritis frecuentes y diarrea crónica. Además, una dieta rica en sal o baja en hierro y el
uso de chupete parecen favorecer también la aparición de caries.
Están infectados con Streptococcus mutans. Según una investigación, a los 24 meses de edad el 84% de los
niños había desarrollado una colonia considerable. Los factores asociados a estos casos fueron la ingesta de
bebidas dulces antes de dormir, tomar demasiados alimentos dulces, picar entre comidas, compartir comida
con adultos y una presencia muy alta de dichas bacterias en la madre. Por el contrario, la falta de bacterias se
asoció básicamente con el cepillado habitual de los dientes.
Formas de mejorar y reparar una carie:
Las caries dentales comienzan invadiendo el esmalte dental, esta penetra llegando a los túbulos dentinarios
que tienen unas fibras sensitivas que son terminaciones nerviosas lo que hay mas sensibilidad. Cuando la
caries dental invade el nervio ya se hace un dolor insoportable porque el nervio es lo que nutre el diente y le
da la sensibilidad.
También cuando se inflama el nervio el diente es tan rígido que no permite que se expanda el nervio entonces por ello es tan doloroso es como una bomba de tiempo.
Duele muchísimo el diente hasta que deja de doler porque el nervio se murió. Pero ese tejido muerto trae a
su vez una infección entonces son pasos hacia delante de dolores, cuando el diente está infectado, las bacterias buscan reproducirse en el conducto rígido del diente y se van al hueso del diente a la punta de la raíz, y
allí forman un absceso dental.
Nanotecnólogos por un día 2012
Si este absceso tiene salida constante de pus hacia el exterior, no va a doler. Si no tiene salida, la pus formara
una bola en la encía y puede crecer mucho.
Limpieza de las caries:
Normalmente todas las caries se limpian torneando la parte
afectada.
Ahora se podria evitar ese paso.
La limpieza de caries puede ser un tanto dolorosa como molesta, ya que varios pasos se necesitan para poder
limpiar y sacar la infección de cada carié.
Hay que tener en cuenta que cada carié es diferente, es decir, hay caries que no llegan a la pulpa del diente
(para reparar un diente con estas características se necesita realizar un tratamiento conducto).
Presentamos una nueva forma de reparar los dientes, partiendo de una especie de pasta que limpiara toda la
carié.
La misma esta compuesta por: xilitol, acido málico, bicarbonato de sodio (hidrogeno carbonato de sodio),
peróxido de hidrogeno, peróxido de carbamida.
Esta especie de pasta se colocara en la zona afectada directamente para que comience a sacar parte de la
carié; se debe acotar también que la misma contiene antibióticos como amoxilina 875mg y diclofenac sódico
100 mg para la desinflamación, y para sacar la infección que se encuentra en la encía y el diente.
La pasta sacara todo las impurezas, infección y de mas que se encuentre en el diente para luego poder taparla. Para taparlas se usara composis compuesto de cerámicas finas o partículas de cuarzo. En las grandes
caries que dejan un orificio más grande se genera un curco o fisura que permite la entrada de bacterias, para
que n suceda esto se optara por incorporar un agente adherente. Así logrando que la tapa del diente quede
hermética a las bacterias.
Nanotecnólogos por un día 2012
Terminación.
Con este método es mas fácil realizar la limpieza de las caries, también se puede aplicar en mujeres embarazadas porque no se utiliza ningún tipo de anestésiante.
Conclusión:
Con este método se evitarían todos estos pasos que son un tanto tediosos, ya que implica mucha precisión y
paciencia. También se busca la menor complicación posible partiendo de que muchas personas son alérgicas
a la anestesia.
Otra alternativa:
Podríamos presentar un prototipo de robot milimétrico portado en un flúor o pasta de limpieza.
Que se coloque en la carié, el mismo sacaría todo tipo de impureza e infección, produciendo una especie de
tratamiento conducto.
Para este caso se necesitaría un tratamiento previo al mismo, ya que el robot milimétrico sacara los nervios,
la pulpa, del diente o muela.
Este solo caria la carié y las parte de la muela que se encuentren en descomposición pero no dañaría las
encías ni otros dientes. (Este podría ser muy parecido al robot milimétrico que destapa las arterias por el exceso de grasas).
Al robot milimétrico trabajaría por un tiempo determinado, es decir tal vez uno solo no podría realizar todo
el trabajo, esto dependiendo de cada caso.
Podemos destacar que esto seria novedoso en la odontología. Los tratamientos se terminarían mucho más
rápido.
Nanotecnólogos por un día 2012
En el tratamiento se debe tener una dieta sin azucares ya que estos contribuyen a las caries. También se
ayudaría con flúor, enjuagues bucales, para tener una buena limpieza bucal, ayudando a este método.
Este robot milimétrico podría sacar el sarro de los dientes. Provocados por el cigarrillo y el mal lavado de
los dientes. Enfermedad llamada gingivitis.
La gingivitis es una enfermedad bocal generalmente bacteriana que provoca inflamación y sangrado de
las encías, causada por los restos alimenticios que quedan atrapados entre los dientes. Es muy frecuente que
su origen sea causado por el crecimiento de las muelas del juicio, que produce una concavidad, que es donde
se deposita el agente patógeno o bacteria. Esta enfermedad se puede desarrollar después de tres días de no
realizar la higiene oral (cepillado de dientes y lengua).
Este robot sacaría todo el sarro que se encuentra entre los dientes y las encías.
El mini robot ayudaría a ejecutar muchos trabajos odontólogos.
La nano con el mundo en sus manos.
Alumnos: Matías Renzo Gastón Fernández, Tania Janet Pozo
Colegio agropecuario “Wolf Scholnik”
Famatina, La Rioja
Nanotecnólogos por un día 2012
Introducción:
La presente monografía tiene como objetivo principal informar lo que hemos recolectado durante estos 3
meses.
Este trabajo trata de lo que es en si la Nanotecnologia , sus aplicaciones y en especial de lo que podría ser una
de las posibles salvaciones del futuro, (la nanomedicina).
Su propósito es orientar de manera general sobre lo contenido en este documento.
Nanotecnología
La palabra “nanotecnología” es usada extensivamente para definir las ciencias y técnicas que se aplican
a un nivel de nano escala, esto significa que son medidas extremadamente pequeñas que permiten trabajar y
manipular las estructuras moleculares y sus átomos.
La nanotecnología es un conjunto de técnicas que se utilizan para manipular la materia a la escala
de átomos y moléculas. También podríamos decir que es el estudio, diseño, creación, síntesis, manipulación
y aplicación de materiales, aparatos, sistemas funcionales, y también la explotación de fenómenos y propiedades de la materia a través del control de la materia a nano escala.
Nano, es un prefijo griego que indica una medida.
Un nanómetro es la mil millonésima parte de un metro. Para comprender el potencial de esta tecnología
es clave saber que las propiedades físicas y químicas de la materia cambian a escala manométrica, lo cual se
debe a efectos cuánticos. La conductividad eléctrica, el calor, la resistencia, la elasticidad, la reactividad entre
otras propiedades, se comportan de manera diferente que en los mismos elementos a mayor escala.
Cuando se utilizan o manipula la materia a escala tan minúscula de átomos y moléculas, demuestra
fenómenos y propiedades totalmente nuevas. Por lo tanto, científicos utilizan la nanotecnología para crear
materiales, aparatos y sistemas novedosos y pocos costosos con propiedades únicas.
Esta ciencia si es que “se le podría llamar asi” promete muchos beneficios de todo tipo, desde aplicaciones medicas nuevas o más eficientes a soluciones de problemas ambientales y muchos otros; sin embargo,
este concepto no es muy conocido en la sociedad.
1. Objetivos de la Nanotecnología:
La nanotecnología tiene tres objetivos fundamentales:
1.1
Colocar cada átomo en su lugar adecuado.
1.2
Conseguir que casi cualquier estructura sea consistente con las leyes de la Física y la Química, que
podamos especificar y describir a nivel atómico.
1.3
Lograr que los costos de fabricación no excedan ampliamente el costo de las materias primas y la
energía empleada en el proceso.
2. Inversión Mundial sobre la Nanotecnología:
Nanotecnólogos por un día 2012
Algunos países en vías de desarrollo ya destinan importantes recursos a la investigación en nanotecnología. La nanomedicina es una de las áreas que más puede contribuir al avance sostenible del Tercer Mundo,
proporcionando nuevos métodos de diagnóstico y cribaje de enfermedades, mejores sistemas para la administración de algunos parámetros biológicos.
Actualmente, alrededor de 40 laboratorios en todo el mundo canalizan grandes cantidades de dinero
para la investigación en nanotecnología. Unas 300 empresas tienen el término “nano” en su nombre, aunque
todavía hay muy pocos productos en el mercado.
Algunos gigantes del mundo informático como IBM Hewlett Packard (HP), NEC, e Intel, están invirtiendo millones de dólares al año en el tema. Los gobiernos del llamado Primer Mundo también se han tomado el tema muy en serio, con el claro liderazgo del gobierno estadounidense, que para este año ha destinado
570 millones de dólares a su National Nanotechnology Initiative.
En España, los científicos hablan de nanopresupuestos. Pero el interés crece, ya que ha habido algunos
congresos sobre el tema, en Sevilla, en la Fundación de San Telmo, sobre oportunidades de inversión, y en
Madrid, con una reunión entre responsables de centros de nanotecnología de Francia, Alemania, Reino Unido,
en la Universidad Autónoma de Madrid.
Por otra parte el sector privado gastó unos 3.8 billones de dólares en investigaciones y desarrollo de
nanotecnología. Dicho gasto se reparte por regiones de la siguiente manera:
Empresas norteamericanas: 1.7 billones (46%).
Empresas asiáticas: 1.4 billones (36%).
Empresas europeas: 650 millones (17%).
Empresas de otras regiones: 40 millones (menos del 1%).
nología.
Esto es algo asombroso, y se espera aún más investigaciones y estrategias vinculadas a la nanotec3. Campos científicos que abarca la nanotecnología: (características).
La característica fundamental de la nanotecnología es que constituye un ensamblaje interdisciplinar de
varios campos de las ciencias naturales que están altamente especializados. Por lo tanto los físicos juegan un
importante rol no solo en la construcción del microscopio usado para investigar tales fenómenos sino también
sobre todas las leyes de la mecánica cuántica.
Alcanzar la estructura del material deseado y las configuraciones de ciertos átomos hacen jugar a la Química un papel importante. En medicina el desarrollo específico
dirigido a nanoparticulas promete ayudar al tratamiento de ciertas enfermedades.
Aquí, la ciencia ha alcanzado un punto en el que las fronteras que separan las diferentes disciplinas
han empezado a diluirse, y es precisamente por esa razón por la que la nanotecnología también se refiere a ser
una tecnología convergente.
NANOTECNOLOGIA:(engloba)
I.
Física:
Nanotecnólogos por un día 2012
II.
Química: (molecular y computacional)
III.
Tecnología de los materiales:
IV.
Matemáticas:
V.
Ciencia de los materiales:
VI.
Electrónica:
VII.
Biología molecular:
VIII. Ingeniería mecánica:
IX.
X.
Medicina: (nanomedicina)
Ingeniería eléctrica:
4. Aplicaciones de la nanotecnología:
La nanotecnología y sus aplicaciones están cada vez más presentes en nuestra vida cotidiana, aunque
hasta hace poco tiempo se consideraba ciencia ficción. La medicina, la ingeniería, la informática, la mecánica,
y la física o la química son solo algunas de las disciplinas que ya se están beneficiando de las posibilidades
que ofrece la nanotecnología.
A continuación se mencionara algunas de las aplicaciones existentes de la nanotecnología:
4.1
Nanotecnología aplicada en el tratamiento del agua:
4.2
Nanotecnología aplicada en la utilización de la energía solar:
4.3
Nanotecnología aplicada a dispositivos nano informáticos:
4.4
Nanotecnología aplicada en la agricultura:
4.5
Nanotecnología aplicada en la industria:
4.6
Nanotecnología aplicada para productos textiles antimicrobianos:
4.7
Nanotecnología aplicada en la construcción:
4.8
Nanotecnología aplicada en la medicina: (nanomedicina).
4.8.1
Nanomedicina: ( Historia).
Richard Feyman fue considerado el padre de la “nanomedicina” y de la “nanotecnología”, tras
ganar el premio Nobel de Física en 1965, y también, después de dar un discurso en el Instituto Tecnológico
de California el 29 de diciembre de 1959.
4.8.2
Nanomedicina: (breve comentario).
Nanotecnólogos por un día 2012
La técnica desarrollada consiste en introducir en la sangre nanotubos (redes de átomos de carbono
dispuestos de forma tubular), de platino, que son 100 veces meas delgados que un cabello humano. Estos
nanotubos pueden viajar por los vasos sanguíneos más pequeños del cuerpo hasta llegar a cualquier parte
del cerebro sin por ello afectar al flujo normal de la sangre o los intercambios sanguíneos.
Aunque desde hace tiempo se emplean las arterias para introducir catéteres, en la actualidad se
pretende utilizar para medir la actividad eléctrica de una célula nerviosa, lo que permitirá un conocimiento
mucho más exhaustivo del funcionamiento del cerebro que el proporcionado por otras tecnologías como
la tomografía por emisión de positrones o la resonancia magnética molecular.
4.8.3
Aplicaciones biomédicas:
Las nanopartículas magnéticas son de sumo interés en biomedicina por sus diversas e importantes aplicaciones:
1) Para transporte de drogas terapéuticas o de radioisótopos;
2) Como separadores magnéticos de células marcadas;
3) Para el catabolismo de tumores vía hipertermia;
4) Como agentes de contraste en aplicaciones de resonancia magnética. El hecho de que puedan fabricarse con un tamaño homogéneo que va desde unos pocos nanómetros hasta decenas, las coloca en una
dimensión comparable a una entidad biológica como una célula (10-100µm), un virus (20-450nm),
una proteína (50nm) o un gen (2nm de ancho por 10-100nm de largo).
4.8.3.1
Transporte de fármacos:
Hasta el presente, la mayor desventaja de los tratamientos que implican transporte de drogas o radioisótopos, es la inadecuada distribución de los medicamentos en el cuerpo. Las drogas terapéuticas se administran
en el torrente sanguíneo, con el consecuente efecto no deseado de que atacan todo tipo de células, incluidas las
sanas. Por ejemplo, los efectos secundarios de la administración de anti-inflamatorios en pacientes con artritis
crónica conllevan a la suspensión de su uso; sin embargo, si su aplicación pudiera localizarse solo en la parte
afectada, entonces podría aplicarse una droga patente y efectiva de forma continua.
A fines de la década del ‘70, científicos dedicados a este tema propusieron usar portadores magnéticos
con el fin de atacar sitios específicos dentro del cuerpo humano, como por ejemplo un tumor cancerígeno. El
objetivo era lograr una mayor localización de la droga para disminuir:
1) los efectos colaterales.
2) las dosis aplicadas. En una terapia dirigida magnéticamente, una droga citotóxica se enlaza a una nano
partícula magnética y biocompatible que funciona como portador. Este complejo droga-portador se
inyecta al sistema sanguíneo del paciente, normalmente en forma de ferro fluido biocompatible. Cuando las partículas han entrado en el torrente sanguíneo se aplica un campo magnético externo para
concentrar el ferro fluido en algún sitio específico del cuerpo. Una vez localizado en el objetivo deseado, la droga puede liberarse por medio de alguna actividad enzimática, por cambios en las condiciones
fisiológicas o bien por variaciones de temperatura y ser absorbida por el órgano o células afectadas:
Desde aquellos primeros ensayos de la década de los ‘70 se han desarrollado muchos y diversos tipos
de portadores magnéticos, pero aun en la actualidad la optimización de estos portadores sigue siendo
un tema de gran interés.
Nanotecnólogos por un día 2012
Las nanopartículas están formadas por un núcleo magnético, que normalmente es magnetita (Fe3O4) o
maghemita (y-Fe2O2), recubierto con un material biocompatible. El revestimiento de la nanopartícula
magnética tiene la función de aislar del medio evitando así que se disuelvan o se oxiden en el medio
fluido, pero también puede favorecer la funcionalización de, por ejemplo grupos carboxilos, biotin,
evidin carbodi-imide u otras moléculas.
Los recubrimientos más utilizados son los polímeros, como el polivinil, alcohol o dextran, o los compuestos inorgánicos como la sálica; sin embargo últimamente, se están estudiando los recubrimientos
con metales nobles como el “Oro”.
4.8.3.2
Hipertermia:
En medicina se usa la hipertermia como un procedimiento terapéutico basado en la elevación
de la temperatura de una región del cuerpo, afectada por un proceso maligno, con el fin de eliminar dicho
proceso.
Se ha descrito el uso de la hipertermia, en el tratamiento de tumores cerebrales, prostáticos, pélvicos, cáncer de mama, carcinomas escamosos de cabeza y cuello, basaliomas dérmicos, etc. Así mismo se
han descripto nuevos avances técnicos en la separación de partículas magnéticas, dispensación de dichas
partículas y sus aplicaciones en biomedicina uso de liposomas catiónicos magnéticos así como su papel
como coadyuvante con la quimioterapia o con la radio terapia en el tratamiento de los tumores malignos
basados en el aumento de la capacidad para “matar” células (cell-killng effect) a temperaturas superiores
a 41-42 ° C..
Las investigaciones más recientes sobre hipertermia tienen como objetivo estabilizar y homogeneizar la temperatura alrededor de 42-43°C en la masa tumoral, aunque existe una línea alternativa, denominada termoablación magnética, basada en el empleo de temperaturas de hasta 55°C.
Para alcanzar la temperatura deseada dentro de la masa tumoral se ha utilizado, a lo largo de la
última década , nanopartículas magnéticas de oxido de hierro (Fe 2 O 3 o Fe304), compuestos metálicos
(Fe, C, Sm ,C), metales ( Fe, Au, etc), con diámetros entre 10 y 500 nanómetros. Estas nanopartículas
pueden ser bien toleradas por el organismo (dextran-magetita, Fe ) o precisar un recubrimiento para ser
biocompatibles .
La idea no es nueva: el uso de óxidos de hierro para calentar y destruir tumores ya fue propuesto por
Gilchrist en 1957. Sin embargo al día de hoy, subsisten varios problemas técnicos sin resolver de modo satisfactorio lo que ha impedido la utilización clínica de una terapia tan prometedora. La razón estriba en que
las soluciones sencillas, que pueden manejar el comportamiento de las nanopartículas en un determinado
aspecto, con frecuencia afectan negativamente a otros. Esto da lugar a que materiales que “funcionan” en
los ensayos in vitro den resultado negativos in vivo.
5. Riesgos de la nanotecnología:
Nanotecnólogos por un día 2012
•
Desequilibrio económico debido a una proliferación de productos baratos
•
Opresión económica debido a precios inflados de forma artificial
•
Riesgo personal por uso de la nanotecnología molecular por parte de criminales o terroristas
•
Riesgos para las libertades personales o sociales por restricciones excesivas
•
Desequilibrio social por nuevos productos o formas de vida.
•
Carrera inestable de armas fabricadas con la nanotecnología.
•
Daños medioambientales colectivos derivados de productos no regulados.
•
Plaga gris o plasta gris (gray goo) - un factor de riesgo menor.
•
Un mercado negro en nanotecnología (aumenta la posibilidad y el peligro de otros riesgos).
•
Programas de nanotecnología molecular que compiten entre sí (aumenta la posibilidad y el peligro de
otros riesgos).
•
El abandono y/o la ilegalización de la nanotecnología molecular (aumenta la posibilidad y el peligro de
otros riesgos).
Bibliografía
• Antonio Hernando Grande: Rev.R.Acad.Cienc.Exact.Fis.Nat.(Esp),2007;101
• Colección Ciencia Joven 38
• Experiencias vivenciales:
Visita al están Nanotecnologia en Tecnopolis Buenos Aires julio de 2012.
Nanotecnólogos por un día 2012
Presencia en la capacitación brindada por la FAN en la ciudad de Chilecito- La Rioja (periodo
julio 2012)
• Nanotecnología El desafío del siglo XXI
Galo Soler Illia. Director de colección Patricio Garrahan marzo de 2012
• Jairo Ferrero Sanchis.
• Quien es Quien en Nanotecnologia en Argentina.
Fundación Argentina de Nanotecnología.
Física Cuántica VS Física Clásica.
Alumno: Zaits Svitlana
E.T. N° 28 “República Francesa”
Capital Federal
Nanotecnólogos por un día 2012
Introducción
En la nanotecnología rigen las leyes de la física cuántica… A diferencia de la física clásica que estudiamos
en el colegio, la física cuántica, estudia los mismos fenómenos físicos pero a escala nanométrica , de ahí
sacamos la conclusión que las propiedades a nivel microscópico cambian.
La diferencia principal entre estas dos ramas de la física es que la física clásica es “determinista”, es decir
que sabemos los resultados exactos de una acción u otra teniendo información de los objetos con los cuales
actuaremos, en cambio en la física cuántica no podemos saber exactamente que pasara con un átomo si realizamos tal acción, lo único que vamos a poder hacer el suponer y realizar cálculos de probabilidad.
La física cuántica es justamente un set de reglas de cómo se comporta la naturaleza a escalas muy pequeñas,
a escala de átomos y partículas fundamentales. Este set de reglas ha sido puesto a prueba una y otra vez y
hasta la fecha parece funcionar de maravilla.
Las principales comparaciones entre física clásica y física cuántica:
FÍSICA CLÁSICA
Es determinista:
FÍSICA CUÁNTICA
Es probabilística:
Si sabemos la posición y la velocidad de un Nunca se puede saber con seguridad absoluobjeto, se puede determinar donde va.
ta en que se convertirá una cosa en concreto.
Si se conocen las distintas partes, se entiende
Es holística:
el todo.
El Universo es un todo unificado cuyas
partes interactúan unas con otras.
El observador observa el Universo
El observador influye en lo observado y
participa
Es aplicable al mundo en gran escala, pero
Aplicable a todas las escalas del mundo.
no al mundo subatómico.
Es imposible observar la realidad sin camEs posible observar la realidad sin cambiarla.
biarla. Somos la naturaleza, la naturaleza se
estudia a sí misma.
Se basa en el conocimiento de “verdades
Se basa en el conocimiento de “tendencias a
absolutas”
existir”, o “tendencias a ocurrir”
Creo que antes de empezar a hablar de la física cuántica en este trabajo, debería empezar a desempolvar algunos conocimientos que todos tenemos guardados de la física “clásica” y recordar leyes que todos estudiamos como por ejemplo:
Las tres leyes de Newton:
1. La primera ley de Newton o la ley de la inercia dice: que un objeto en reposo permanecerá en reposo
a menos que se le aplique una fuerza, también dice que un objeto en movimiento con velocidad constante continuara en movimiento a menos que se le aplique una fuerza externa.
2. La segunda ley cuantifica el efecto de una fuerza externa en un objeto. La fuerza externa cambia la
velocidad del objeto, a este cambio de velocidad se le llama aceleración. Newton afirmaba que la
aceleración de un objeto es directamente proporcional a la fuerza que actúa sobre el e inversamente
proporcional a la masa. Y tenía razón con respecto al mundo de la física clásica…
La segunda ley de Newton representada en formula, donde obviamente:
Nanotecnólogos por un día 2012
a= aceleración
F=fuerza
M=masa
3. La tercera ley de Newton o también llamada principio de acción y reacción: “Cuando un cuerpo A
ejerce una fuerza (acción) sobre otro B, este reacciona sobre A con otra fuerza de igual intensidad,
igual dirección y sentido opuesto (reacción)”.
Las dos fuerzas mencionadas en la tercera ley de Newton, y que aparecen en la interacción de dos cuerpos, se denominan de acción y reacción. Cualquiera de ellas podrá indistintamente, ser considerada
como acción o reacción.
Imagen que representa la ley de acción y reacción, hecha por la autora. es la fuerza que ejerce el cuerpo B sobre el A y es la fuerza que ejerce el cuerpo A sobre el B.
En la física clásica a diferencia de la física cuántica, el futuro está determinado por el presente, en la
física clásica conociendo los datos exactos de los cuerpos u objetos se puede “saber” el “futuro exacto” que pasaría, si por ejemplo le aplicaríamos tal fuerza, y calculándolo ya lo sabemos, desde este
punto sacamos la conclusión que la física clásica es “determinista”.
Daré un ejemplo ahora de cómo se diferencia la física clásica de la cuántica:
Física Clásica
Para un determinado caso aplicamos la segunda ley de Newton.
Física cuántica
Para el mismo caso pero a escala nanometrica aplicamos la ecuación de Shröndiger.
La segunda ley ya la conocemos, pero ¿de qué se tratara la ecuación de Shröndiger?
Erwin Shröndiger, en 1925 formulo cómo se comportan las ondas de materia bajo la influencia de las
fuerzas externas. Hay que resaltar que en la ecuación de Shrödinger no estable donde se encuentra un
electrón en un átomo en determinado instante, sino la probabilidad de que este ahí.
La ecuación de Shrödinger:
Nanotecnólogos por un día 2012
¿Cómo nació la física cuántica?
A finales del siglo XIX y principios del XX se realizaron experimentos que mostraban que la interacción de
la radiación electromagnética con la materia no podía ser explicada por las leyes del electromagnetismo. En
esa misma época, con nuevas tecnologías se les permitió a los científicos explorar la estructura atómica de
la materia. Cuando se empezaron a realizar experimentos sobre el movimiento de las partículas subatómicas
se encontraron con que los resultados no se podían explicar con las leyes de la física clásica. Y para resolver
este problema, se empezaron a formar nuevas ideas y teóricas que hoy construyen lo que conocemos como
la física cuántica.
Radiación del cuerpo negro:
Fue el primer experimento que no pudo ser explicado por las leyes de la física clásica…
Un cuerpo negro es un objeto teórico o ideal que absorbe toda la luz y toda la energía radiante que incide
sobre él. Nada de la radiación incidente se refleja o pasa a través del cuerpo negro. A pesar de su nombre, el
cuerpo negro emite luz y constituye un sistema físico idealizado para el estudio de la emisión de radiación
electromagnética. El nombre Cuerpo negro fue introducido por Gustav Kirchhoff en 1862. La luz emitida
por un cuerpo negro se denomina radiación de cuerpo negro.
Todo cuerpo emite energía en forma de ondas electromagnéticas, siendo esta radiación, que se emite incluso
en el vacío, tanto más intensa cuando más elevada es la temperatura del emisor. La energía radiante emitida
por un cuerpo a temperatura ambiente es escasa y corresponde a longitudes de onda superiores a las de la luz
visible (es decir, de menor frecuencia). Al elevar la temperatura no sólo aumenta la energía emitida sino que
lo hace a longitudes de onda más cortas; a esto se debe el cambio de color de un cuerpo cuando se calienta.
Aunque la teoría clásica puede explicar cualitativamente este corrimiento de un cuerpo caliente a una temperatura fija. Experimentalmente se encontró que la energía emitida por un cuerpo negro presentaba un picoa
longitudes de onda. En cambio, según la teoría claseca, esta energía debía ser proporcional al cuadrado de la
frecuencia, o sea, a longitudes de onda muy cortas: en el violeta y el el ultravioleta. Como consecuencia, de
Nanotecnólogos por un día 2012
acuerdo con la teoría clásica, la energía total radiada por un cuerpo negro debía ser infinita, algoque por supuesto no es posible (a este problema se lo llamo catástrofe ultravioleta).
Luego aparece un señor Max Planck…
Que explica el mecanismo que hace que los átomos radiantes produzcan la distribución de energía observada. Max Planck sugirió en 1900 que:
1. La radiación dentro de la cavidad está en equilibrio con los átomos de las paredes que se comportan como
osciladores armónicos de frecuencia dada f .
2. Cada oscilador puede absorber o emitir energía de la radiación en una cantidad proporcional a f.
Cuando un oscilador absorbe o emite radiación electromagnética, su energía aumenta o disminuye en una
cantidad hf .
La segunda hipótesis de Planck, establece que la energía de los osciladores está cuantizada. La energía de un
oscilador de frecuencia f sólo puede tener ciertos valores que son 0, hf , 2hf ,3hf ....nhf .
Energía= h x frecuencia
h= es la constante de proporcionalidad que hoy se conoce como la constante de Planck y es muy pequeña.
En el sistema internacional de medición, equivales a h=6.6261xJ.s
La distribución espectral de radiación es continua y tiene un máximo dependiente de la temperatura. La distribución espectral se puede expresar en términos de la longitud de onda o de la frecuencia de la radiación.
dEf /df es la densidad de energía por unidad de frecuencia para la frecuencia f de la radiación contenida en una cavidad a la temperatura absoluta T. Su unidad es (J·m-3)·s.
Nanotecnólogos por un día 2012
Donde k es la constante de Boltzmann cuyo valor es k=1.3805·10-23 J/K.
dE /d es la densidad de energía por unidad de longitud de onda para la longitud de onda de la radiación contenida en una cavidad a la temperatura absoluta T. Su unidad es (J·m-3)·m-1.
La luz ¿Qué es?
Volvemos nuevamente a Newton…
Este famoso científico trato de explicar la luz en términos de partículas, y no es raro…
Después de todo, los rayos de luz viajan en línea recta y rebotan en los espejos.
A pesar de eso muchos científicos no compartían esta idea con Newton , y pensaban y proponían como hipótesis de que la luz era una onda.
Una onda es una vibración que se propaga en el espacio (como las olas en el agua o el sonido en el
Nanotecnólogos por un día 2012
aire). Si nada perturbe esas ondas “están tranquilas” si tomamos el ejemplo de un lago, las ondas son
horizontales y planas pero si cae una piedra se puede observar cómo se propagan concéntricamente
círculos de la piedra, tal como lo muestra la imagen.
Las principales características de la onda son:
•
•
•
•
•
Amplitud: Que es la máxima altura que adquiere la onda.
Cresta: Es el punto donde la onda alcanza la altura máxima.
Valle: Es el punto más bajo de la onda.
Longitud de onda: Es la diferencia entre dos crestas.
Frecuencia de la onda. Es el número de crestas que pasan por un segundo en un lugar X.
•
Patón de interferencia:
A diferencia de los objetos físicos las ondas pueden ocupar el mismo espacio físico las dos al mismo tiempo,
a esto se lo llama Patrón de interferencia, en este caso los efectos ondulatorias pueden sumarse, disminuirse
o anularse.
Cuando la cresta de una onda se translapa con otra cresta, se suman, si por ejemplo una cresta se
translapa con un valle, o se cancelan o se reducen.
Nanotecnólogos por un día 2012
Volvemos a “la historia de la naturaleza de la luz”:
Uno de los científicos que no estaban de acuerdo con Newton era: Christian Huygens que en 1678 propuso
que la luz era un fenómeno ondulatorio que se transmitía a través de un medio llamado éter. Esta teoría
quedó olvidada hasta la primera mitad del siglo XIX, cuando Thomas Young sólo era capaz de explicar el
fenómeno de las interferencias suponiendo que la luz fuese en realidad una onda. Otros estudios de la misma
época explicaron fenómenos como la difracción y la polarización teniendo en cuenta la teoría ondulatoria.
El golpe final a la teoría corpuscular pareció llegar en 1848, cuando se consiguió medir la velocidad de la luz
en diferentes medios y se encontró que variaba de forma totalmente opuesta a como lo había supuesto Newton. Debido a esto, casi todos los científicos aceptaron que la luz tenía una naturaleza ondulatoria. Sin embargo todavía quedaban algunos puntos por explicar como la propagación de la luz a través del vacío, ya que
todas las ondas conocidas se desplazaban usando un medio físico, y la luz viajaba incluso más rápido que
en el aire o el agua. Se suponía que este medio era el éter del que hablaba Huygens, pero nadie lo conseguía
encontrar.
En 1845, Michael Faraday descubrió que el ángulo de polarización de la luz se podía modificar aplicándole
un campo magnético (efecto Faraday), proponiendo dos años más tarde que la luz era una vibración electromagnética de alta frecuencia. James Clerk Maxwell, inspirado por el trabajo de Faraday, estudió matemáticamente estas ondas electromagnéticas y se dio cuenta de que siempre se propagaban a una velocidad constante, que coincidía con la velocidad de la luz, y de que no necesitaban medio de propagación ya que se
auto propagaban. La confirmación experimental de las teorías de Maxwell eliminó las últimas dudas que se
tenían sobre la naturaleza ondulatoria de la luz.
Nanotecnólogos por un día 2012
Lo que finalmente dicen las ecuaciones de Maxwell que la luz es una onda electromagnética que viaja en el
espacio: lo que vibra son los campos eléctricos y magnéticos.
En el caso de la luz, la longitud de onda determina el color.
¿Por qué nos importa tanto el tema la naturaleza de la luz?
Tomando el tema del color es sólo su autoafirmación de especie frente al ambiente que le rodea. Por tanto,
¿cuál es la realidad?, el verde que vemos o la fracción de frecuencias representadas por el resto de radiaciones del espectro que permiten al árbol seguir viviendo?.
Nanotecnólogos por un día 2012
Actualmente, los físicos se preguntan si el mundo que llamamos real es algo concreto, tal como se nos presenta, o por el contrario es la percepción holográfica de una gran cohorte de partículas elementales que se
ordenan ante la inferencia humana.
Nanotecnólogos por un día 2012
En los años 30 del siglo pasado, Einstein, Rosen y Podolsky, afrontan este problema escribiendo:» No cabe
esperar ninguna definición mínimamente razonable de la realidad que nos rodea». El rol de la conciencia del
observador en la creación de la realidad cuántica, se presenta como uno de los grandes retos de la física actual, ya que este observador al encontrarse aparentemente fuera del sistema cuántico que es abierto e impredecible, es incapaz de definir tal realidad y mucho menos, formularla, por lo que su interpretación no sólo no
puede ser objetiva, sino que ni siquiera la alcanza el campo de la subjetividad.
Aparece De Broglie…
Si la luz tiene propiedades de onda y de partícula a la vez, ¿Por qué una partícula (con masa) no puede tener
también propiedades de onda?
Esta pregunta se la hizo por primera vez De Broglie cuando era aun estudiante y el mismo se la respondió en
su tesis doctoral de 1924.
En 1924, el físico francés, Louis-Victor de Broglie (1892-1987), formuló una
hipótesis en la que afirmaba que:
“Toda la materia presenta características tanto ondulatorias como corpusculares comportándose de uno u otro modo dependiendo del experimento
específic.”
Para postular esta propiedad de la materia
De Broglie se basó en la explicación del
efecto fotoeléctrico, que poco antes había
dado Albert Einstein sugiriendo la naturaleza cuántica de la luz. Para Einstein, la
energía transportada por las ondas luminosas estaba cuantizada, distribuida en pequeños paquetes energía o cuantos de luz, que más tarde serían denominados
fotones, y cuya energía dependía de la frecuencia de la luz a través de la
relación:
, donde es la frecuencia de la onda luminosa y la constante de Planck. Albert Einstein proponía de esta forma, que en determinados procesos las ondas electromagnéticas que forman la luz se
comportan como corpúsculos. De Broglie se preguntó que por qué no podría ser de manera inversa, es decir,
que una partícula material (un corpúsculo) pudiese mostrar el mismo comportamiento que una onda.
El físico francés relacionó la longitud de onda, λ (lambda) con el momento lineal de la partícula, mediante la fórmula:
Donde λ es la longitud de la onda asociada a la partícula de masa m que se mueve a una velocidad v,
es también el módulo del vector , o momento lineal
y h es la constante de Planck. El producto
de la partícula. Viendo la fórmula se aprecia fácilmente, que a medida que la masa del cuerpo o su
velocidad aumenta, disminuye considerablemente la longitud de onda.
Nanotecnólogos por un día 2012
Esta hipótesis se confirmó tres años después para los electrones, con la observación de los resultados
del experimento de la doble rendija de Young en la difracción de electrones en dos investigaciones
independientes. En la Universidad de Aberdeen, George Paget Thomson pasó un haz de electrones
a través de una delgada placa de metal y observó los diferentes esquemas predichos. En los Laboratorios Bell, Clinton Joseph Davisson y Lester Halbert Germer guiaron su haz a través de una celda
cristalina.
Esta hipótesis se confirmó tres años después para los electrones, con la observación de los resultados del experimento de la doble rendija de Young en la difracción de electrones en dos investigaciones independientes.
En la Universidad de Aberdeen, George Paget Thomson pasó un haz de electrones a través de una delgada
placa de metal y observó los diferentes esquemas predichos. En los Laboratorios Bell, Clinton Joseph Davisson y Lester Halbert Germer guiaron su haz a través de una celda cristalina.
La ecuación de De Broglie se puede aplicar a toda la materia. Los cuerpos macroscópicos, también tendrían
asociada una onda, pero, dado que su masa es muy grande, la longitud de onda resulta tan pequeña que en
ellos se hace imposible apreciar sus características ondulatorias.
De Broglie recibió el Premio Nobel de Física en 1929 por esta hipótesis. Thomson y Davisson compartieron
el Nobel de 1937 por su trabajo experimental.
Esto se llama y se conoce como Dualidad onda-partícula.
Las CONSECUENCIAS después de De Broglie…
Una consecuencia de la dualidad onda particula, es el principio de incertidumbre formulado por Heisenberg
en 1927:
Principio que revela una característica distinta de la mecánica cuántica que no existe en la mecánica newtoniana. Como una definición simple, podemos señalar que se trata de un concepto que describe que el acto
mismo de observar cambia lo que se está observando. En 1927, el físico alemán Werner Heisenberg se dio
cuenta de que las reglas de la probabilidad que gobiernan las partículas subatómicas nacen de la paradoja de
que dos propiedades relacionadas de una partícula no pueden ser medidas exactamente al mismo tiempo. Por
ejemplo, un observador puede determinar o bien la posición exacta de una partícula en el espacio o su momento (el producto de la velocidad por la masa) exacto, pero nunca ambas cosas simultáneamente. Cualquier
intento de medir ambos resultados con lleva a imprecisiones.
Heisenberg había presentado su propio modelo de átomo renunciando a todo intento de describir el átomo
como un compuesto de partículas y ondas. Pensó que estaba condenado al fracaso cualquier intento de establecer analogías entre la estructura atómica y la estructura del mundo. Prefirió describir los niveles de
energía u órbitas de electrones en términos numéricos puros, sin la menor traza de esquemas. Como quiera
que usó un artificio matemático denominado “matriz” para manipular sus números, el sistema se denominó
Nanotecnólogos por un día 2012
“mecánica de matriz”.
Heisenberg recibió el premio Nobel de Física en 1932 por sus aportaciones a la mecánica ondulatoria de
Schrödinger, pues esta última pareció tan útil como las abstracciones de Heisenberg, y siempre es difícil,
incluso para un físico, desistir de representar gráficamente las propias ideas.
Una vez presentada la mecánica matriz (para dar otro salto atrás en el tiempo) Heisenberg pasó a considerar
un segundo problema: cómo describir la posición de la partícula. ¿Cuál es el procedimiento indicado para
determinar dónde está una partícula? La respuesta obvia es ésta: observarla. Pues bien, imaginemos un microscopio que pueda hacer visible un electrón. Si lo queremos ver debemos proyectar una luz o alguna especie de radiación apropiada sobre él. Pero un electrón es tan pequeño, que bastaría un solo fotón de luz para
hacerle cambiar de posición apenas lo tocara. Y en el preciso instante de medir su posición, alteraríamos
ésta.
Aquí nuestro artificio medidor es por lo menos tan grande como el objeto que medimos; y no existe ningún
agente medidor más pequeño que el electrón. En consecuencia, nuestra medición debe surtir, sin duda, un
efecto nada desdeñable, un efecto más bien decisivo en el objeto medido. Podríamos detener el electrón y
determinar así su posición en un momento dado. Pero si lo hiciéramos, no sabríamos cuál es su movimiento
ni su velocidad. Por otra parte, podríamos gobernar su velocidad, pero entonces no podríamos fijar su
posición en un momento dado.
Heisenberg demostró que no nos será posible idear un método para localizar la posición de la partícula subatómica mientras no estemos dispuestos a aceptar la incertidumbre absoluta respecto a su posición exacta. Es
un imposible calcular ambos datos con exactitud al mismo tiempo.
Siendo así, no podrá haber una ausencia completa de energía ni en el cero absoluto siquiera. Si la energía
Nanotecnólogos por un día 2012
alcanzara el punto cero y las partículas quedaran totalmente inmóviles, sólo sería necesario determinar su
posición, puesto que la velocidad equivaldría a cero. Por tanto, sería de esperar que subsistiera alguna “energía residual del punto cero”, incluso en el cero absoluto, para mantener las partículas en movimiento y
también, por así decirlo, nuestra incertidumbre. Esa energía “punto cero” es lo que no se puede eliminar, lo
que basta para mantener liquido el helio incluso en el cero absoluto.
Existen dos enunciados “clásicos” del principio de incertidumbre (aunque muchas más interpretaciones),
uno atañ ;e a energías y tiempos mientras que otro nos habla de la relación entre posición y momento lineal
de una partícula.
a)Enunciado para posiciones y momentos lineales:
“No puede determinarse con total precisión y de forma simultánea, la posición y el momento lineal (velocidad) de una partícula”; matemáticamente:
ΔxΔp≥(h/4Π).
b)Enunciados para energías y tiempos:
«No puede determinarse con total precisión y de forma simultánea, el tiempo durante el cual una partícula
posee una cierta energía y dicho valor concreto de energía»; matemáticamente:
ΔEΔt≥(h/4Π).
NOTAS A TENER EN CUENTA: En ambos casos;
Δi; representa la incertidumbre en la medida de «i», esto es, el error que se comete cuando medimos la magnitud física «i». En cualquier experimento físico, cualquier medida que hagamos depende del instrumental
Nanotecnólogos por un día 2012
utilizado para hacer dicha medida, por ejemplo, una regla que mide hasta el milímetro tendrá un error en
cualquier medida de Δx≥0.001m (no podría medir más allá de un milímetro) de tal forma que si la medida
realizada es de un metro diríamos que x=1±0,001(m).
Teniendo en cuenta el punto anterior, Δi=0 implicaría la total certeza en una medida (ausencia de error)
mientras que Δi=∞ implicaría la total incertidumbre. De todas maneras, no es necesario llegar a valores tan
altos del error. Habitualmente, en física se considera incertidumbre total al momento en que el valor del error es del orden de la magnitud medida. Por ejemplo, si al medir la gravedad obtenemos g=9,8x±9,8(m/s2)
concluiremos diciendo que no tenemos ni idea del valor de g.
h=cte. de Planck=6,634·10-34J·s (un número extremadamente pequeño).
(h/4Π)=5,276·10-35J·s (un número aún más extremadamente pequeño).
p=m·v; momento lineal o cantidad de movimiento; en la mayoría de los casos hablaremos de una indeterminación en la medida de la velocidad ya que la masa se considerará perf ectamente conocida, esto es,
Δp=Δ(mv)=mΔv. Así, aunque escribamos p, estaremos hablando de v.
Consecuencias del principio de incertidumbre:
1. Una primera consecuencia del principio de incertidumbre resulta evidente sin más que despejar de las ecuaciones; por ejemplo si tenemos en cuenta el postulado a) y despejamos la posición:
Δx≥(5,276·10-35/Δp)
¿Qué podemos decir sobre esto? Cuanto mejor conozcamos la medida de la posición (Δx→0), menos sab
remos sobre la medida de la velocidad (Δp→∞).
2. Este asunto nos lleva directamente a la eliminación del concepto de órbita. Antes hemos utilizado distintos tipos de órbitas para distintos modelos atómicos. El problema es que para hablar de órbitas debo tener
perfectamente determinadas la posición y la velocidad del cuerpo que describe dicha órbita (recordad el
momento angular L=mrv del electrón del modelo de Bohr), a fin de cuentas una órbita no es más que eso,
el conocimiento exacto y simultáneo de posición y velocidad de un móvil. Si no puedo conocer de forma
simultánea la posición y la velocidad de un electrón ¿cómo podré saber el tipo de órbita que describe dicho
electrón?. Simplemente, no podremos saberlo nunca, al menos tal y como entendemos las órbitas en física
clásica. Cuando analicemos las teorías atómicas de Schröedinger definiremos el concepto de «orbital» muy
relacionado con la probabilidad de encontrar al electrón en una zona del espacio. Un orbital es el sustituto
obligatorio de la órbita que, según el principio de incertidumbre, no podemos conocer.
3. El principio de incertidumbre supone el fin del determinismo en la física. pero...¿qué es eso del determinismo?. Hasta la aparición y posterior demostración del principio de incertidumbre toda la física era determinista, o sea, se creía que todas las leyes de la física tenían como fin la completa y perfecta determinación
matemática de la naturaleza en cualquier instante de tiempo, o sea, la física pretendía poder determinar el
Nanotecnólogos por un día 2012
futuro de cualquier sistema. Por ejemplo, ¿a que recordáis esta ecuación?:
Efectivamente se trata de la ley del movimiento si una partícula se mueve con velocidad constante, o sea, el
Movimiento rectilíneo Uniforme . Con esta ecuación podíamos determinar perfectamente la posición de una
partícula sin más que conocer su posición inicial y su velocidad inicial, así se podría co nocer la posición
y la velocidad de dicho móvil el 20 de Marzo de 2023 a las 22:31 horas sin ningún problema. Así puedo
conocer el futuro de dicha partícula. ¡Eso es determinismo!
Heisenberg rompió con todo eso, de hecho lo prohibió e invalidó ya que no podemos conocer simultáneamente (en un mismo instante de tiempo) posición y velocidad (y todas las demás magnitudes que derivan
o están relacionadas con la velocidad, aceleraciones, fuerzas ,...). Esto no quiere decir que los estudios
del MRU estén mal y que tengamos que empezar otra vez la física desde el principio. La clave está en el
numerito 5,276·10-35 . El principio de incertidumbre sólo afecta a magnitudes cuyas velocidades o posiciones tengan ese orden de magnitud,o sea, partículas muy pequeñas y/o que se muevan a velocidades muy
grandes, lo que llamaremos el mundo microscópico . Mientras juguemos con partículas macroscópicas
(pelotas, balas, satélites, planetas,...) los efectos del principio de incertidumbre, aunque están presentes, son
despreciables...¡menos mal! ¿os imagináis que llegados a este punto hubiera que empezar TODO desde el
principio?.
Aunque el asuntillo de Heisenberg no afecta demasiado al mundo macroscópico no deja de ser importante el
saber que la naturaleza no es determinista, esto es, a partir de ahora ya existe un principio físico que nos dice
que hay cosas que no podremos saber jamás (al menos con total certeza): fue un «pequeño gran desastre»
para todos los científicos deterministas y una ruptura total con la ideología científica «oficial» de la época (¡y
de todas las épocas anteriores!).
4. Todos los puntos anteriores nos llevan al nacimiento de una nueva rama de la física: la física estadística:
Como nos prohíben el conocimiento CON EXACTITUD, habrá que generar mecanismos para calcular qué
probabilidad hay de que un suceso ocurra o no ocurra o qué probabilidad hay de que ocurra en unas condiciones o en otras.
La física estadística ya no sólo como herramienta sino como parte independiente de la física es una de las
que más satisfacciones ha dado a la ciencia en los últimos tiempos ya que no sólo ha conseguido explicar
fenómenos naturales hasta ahora inexplicados sino que ha a bierto un enorme campo de investigación para
nuevos fenómenos de los que no hubiéramos tenido ni idea de no haberse tenido que desarrollar tan rápido
¿sabéis que la física estadística tiene mucho que ver en los últimos adelantos contra el cáncer mediante la
realización de estudios sobre porqué la radiación afecta más a unas células cancerígenas que a otras?... ¡a ver
si encima vamos a tener que agradecer a Heisenberg tanta incertidumbre!.
Es fácil entender ahora por qué empecé este artículo diciendo que el principio de incertidumbre fue demoledor para la física y los científicos de la época, sencillamente hubo que reinventarlo todo sobre la base de
Nanotecnólogos por un día 2012
dicho principio.
Actualmente, se sigue «luchando» contra él en el mundo de la tecnología; los microprocesadores y circuitos electrónicos en general se han convertido en instrumentos tan diminutos y los electrones se mueven tan
rápido a través de ellos (aumentando continuamente la frecuencia de dichos dispositivos) que son afectados
en sus «órbitas» por el principio de incertidumbre produciendo fallos en los diseños y por tanto haciendo
imposible la disminución de tamaños hasta un cierto rango. Es por esto por lo que actualmente se estudian
nuevas formas de fabricar dispositivos microscópicos que no se vean afectados por el principio de incertidumbre (nanotecnologías, microprocesadores cuánticos,...).
Descargar