27 J. Elguero «El mundo de la química», en La ciencia al alcance de la mano. Ciencia para todos (Ed. Pedro García Barreno). Editorial Espasa-Calpe, 2000. 8. El mundo de la química José Elguero Instituto de Química Médica, Consejo Superior de Investigaciones Científicas Juan de la Cierva, 3 E-28006 Madrid e-mail: [email protected] Índice 1. Introducción ………………………………………………………………………2 2. Los fundamentos de la química ……………………………………………… 5 3. La estructura de la química…………………………………………………… 6 4. Química orgánica ……………………………………………………………… 6 5. Química inorgánica …………………………………………………………… 15 6. Química física ………………………………………………………………… 18 7. Métodos físicos ……………………………………………………………… 20 8. Química y medicina …………………………………………………………… 23 9. Química y materiales ………………………………………………………… 27 10. Química supramolecular……………………………………………………… 28 11. Catálisis………………………………………………………………………… 33 12. Química y ordenadores ……………………………………………………… 34 13. Conclusiones ………………………………………………………………… 37 14. Glosario ……………………………………………………………………… 39 15. Lecturas recomendadas …………………………………………………… 40 1. Introducción Es habitual colocar la química, con respecto a las otras disciplinas, en una disposición lineal que va de las matemáticas a la medicina: Matemáticas Física Química Biología Medicina Esa posición central es la cara (ciencia de transferencia) y la cruz (¿sólo es eso?) de la química. Una representación de la química en la encrucijada de las ciencias empíricas y las ciencias teóricas parece preferible. 1 El progreso de la química viene dado por descubrimientos empíricos, muchas veces inesperados, y las construcciones teóricas, basadas en la física. Ambos se influyen mutuamente, aunque en el siglo XX los modelos teóricos hayan ido claramente a la zaga. El tiempo que pasa entre un descubrimiento experimental y su justificación teórica es cada vez más corto, pero aún no es usual que un estudio teórico preceda a un descubrimiento, al menos, uno que sea relevante.1. Eso será tarea del siglo XXI. Se puede considerar que la historia moderna de la química empieza en 1939 cuando Linus Pauling2 publica "The Nature of the Chemical Bond and the Structure of Molecules and Crystals". La influencia del libro fue enorme. __________ 1 Uno de esos raros casos es la predicción, en 1970, por Zen-ichi Yoshida, de la existencia del fulereno C60, descubierto por Smalley en 1985 (ver sección 10). 2 Al nombre de Pauling (Premio Nobel de Química, PNQ, 1954) hay que asociar el de Erich Hückel (1896-1980), cuyos trabajos sobre los fundamentos teóricos de la química (1931) son comparables en importancia, aunque hayan sufrido un problema, que hoy llamaríamos de "marketing", que nunca padeció Pauling. __________ Linus Pauling y Erich Hückel Por vez primera, se disponía de una visión coherente de la química basada en la mecánica cuántica. Hasta entonces la química había hecho grandes progresos con un aparato teórico rudimentario: el átomo de carbono tetraédrico y la isomería óptica de Pasteur-van't Hoff-Le Bel (J. H. van't Hoff, primer PNQ, 1901) y el átomo de carbono plano del benceno de Kekulé y la mesomería. A eso hay que añadir las propiedades tridimensionales de los complejos metálicos, mucho más ricas que las del carbono, a las cuales hay que asociar el nombre de Alfred Werner (PNQ, 1913). Obviamente el libro de Pauling no surgió todo formado de la cabeza de su autor: los resultados de muchos químicos allí citados fueron asimilados y organizados. Una rama de la física, la difracción de rayos X, tuvo una influencia notable al proporcionar datos fiables sobre la estructura tridimensional de las moléculas y los iones que forman los cristales. Parece oportuno decir aquí dos palabras de las relaciones de la química con sus más próximas vecinas, la física y la biología. Las relaciones con la informática cuya influencia (sección 12) es quizás mayor, no será discutida aquí porque, legítimamente, no se puede considerar específica a la química. 2 Aparte del impacto trascendente de la teoría cuántica (sección 2), la física ha influido en la química a través de los métodos de determinación estructural (sección 7). Uno de los raros casos en los que un descubrimiento físico contemporáneo afectó directamente a la química, fue la predicción de Tsung Dao Lee y Chen Ning Yang (ambos PNF 1957) verificada por C. S. Wu en 1957, de la violación del principio de conservación de la paridad en la interacción débil (ver el capítulo precedente de Francisco Yndurain). Hasta 1957 se suponía obvio que la asimetría no formaba parte intrínseca del universo. No había explicación causal de porqué la naturaleza había seleccionado los aminoácidos L y los azúcares D. Aunque extraordinariamente pequeño, 6,5 x 10–14 J mol–1, el valor deducido del principio LYW, favorece a los aminoácidos L (ver, sin embargo en la sección 8, el descubrimiento del papel de la D-serina). Relacionado con este tema, la existencia de enantiómeros ha preocupado a los creadores de la física cuántica. Ya en 1927, Hund escribía "Si una molécula admite dos configuraciones diferentes, que son imágenes especulares una de otra, entonces los estados estacionarios no corresponden a un movimiento entre una de esas dos configuraciones de equilibrio. Más bien, cada estado estacionario está compuesto por las configuraciones diestra (D) y siniestra (L) en iguales proporciones. .... El hecho de que las configuraciones D y L de una molécula no sean estados cuánticos (valores propios del Hamiltoniano) parece contradecir la existencia de isómeros ópticos". Muchos grandes nombres de la física contemporánea se han ocupado de ese problema: Rosenfeld, Born (PNF 1954), Jordan, Landau (PNF 1962), Wigner (PNF 1963), de Gennes (PNF 1991). En dirección contraria, hay un descubrimiento químico que tiene más relevancia en física que en química. Nos referimos a la reacción de Belousov-Zhabotinski (BZ) considerada por Ilya Prigogine como uno de los descubrimientos más importantes del siglo, comparable con el descubrimiento de los quarks o la introducción de los agujeros negros. La significación de las reacciones BZ está relacionado con la demostración de la existencia de un nuevo tipo de coherencia y muestra que en condiciones de no-equilibrio, la coherencia se extiende en distancias macroscópicas, del orden de centímetros. Estas reacciones y otros fenómenos están relacionados con la termodinámica de sistemas en situaciones de no-equilibrio y con la teoría de las estructuras disipativas que le valieron a Prigogine el PNQ 1977. Para ser ecuánimes, debemos hacer notar que Peter Atkins es muy negativo, en su ensayo sobre la química-física en el próximo milenio, sobre el interés de estos estudios. En lo que se refiere a la frontera química-biología algo diremos en la sección 8 y en las conclusiones. Adelantemos aquí, aunque pueda parecer una opinión corporativa, que mi convencimiento profundo es que la física no va a invadir el dominio de la química (por que la química no interesa a los físicos), pero que la química sí va a invadir el de la biología. ¿Qué puede esperar la biología de la química? Mucho. ¿Qué puede esperar la química de la biología? Esencialmente objetivos y problemas: ideas para nuevos temas de investigación. Como la síntesis de la vitamina B12 lo fue para Woodward y Eschenmoser y la de la Palitoxina para Kishi (ver sección 4). Pero nada a nivel profundo, a nivel conceptual (¿qué más da que se descubra un reactivo nuevo o un mecanismo nuevo trabajando sobre una sustancia, aunque sea el ADN, importante en biología o sobre un producto totalmente exobiótico?). No hay nada en un sistema vivo que lo difiera (ni siquiera que lo caracterice) de una reacción química industrial. No es verdad, como se ha dicho, que los químicos postulen modelos aditivos y los biólogos, modelos interactivos. La relación de la biología con la química es la misma que la de la meteorología con la física: muy complicada pero sin misterio. Es más un problema de supercomputación que de ideas químicas nuevas. ¿Que la biología está basada en las interacciones no covalentes y la química en las covalentes, como se oye decir? Pues evidentemente es falso, doblemente falso. Primero, las interacciones covalentes juegan un papel esencial en biología, lo que pasa es que los químicos las han estudiado bien y por eso se dan por obvias. Segundo, ¿qué químico estructural no está interesado por las interacciones débiles? Los enlaces de hidrógeno, los efectos cooperativos, el "apilamiento" de bencenos, las fuerzas de dispersión, etc., están en el corazón de sus 3 preocupaciones. Cada cosa a su tiempo: ya se ha establecido una sistemática de las fuerzas enlazantes, ahora (y en los próximos decenios) les llega el turno a las no enlazantes. Conclusión: en los próximos veinte o treinta años los químicos van a invadir la biología, que va a pasar así de ser una ciencia de modelos sencillos para convertirse en una disciplina cuantitativa y rigurosa sin perder la "espontaneidad" que caracteriza tanto a la química como a la biología. 2. Los fundamentos de la química La química, tal como la conocemos hoy, se inicia en el año 1901 cuando Max Planck (PNF, 1918) introduce los quanta para explicar la radiación del cuerpo negro (ver el capítulo precedente "El mundo del microcosmos"). En pocos años, una constelación de grandes científicos,3,4 construyó uno de los más notables edificios de la historia de la humanidad, la mecánica cuántica, edificio que, muy probablemente, seguirá siendo considerado excepcional el próximo milenio. __________ 3 No hay razón para suponer que entre 1900 y 1930 hubo más genios sobre la tierra que en otras épocas anteriores o posteriores. Es más razonable asumir que los genios representan un pequeño porcentaje de la humanidad y, por lo tanto, aumentan con la población. Probablemente un conjunto de personas, altamente inteligentes, incluido algún genio, encontró entonces un extraordinario tema de trabajo. 4 Entre ellos Einstein que, bien que mucho más conocido por las dos teorías de la relatividad, recibió el PNF 1921 por su estudio del efecto fotoeléctrico (1905). Nótese que si bien las correcciones relativistas, son importante para entender el comportamiento de moléculas que tengan átomos pesados (principalmente oro, platino y mercurio), la contribución de la teoría de la relatividad es insignificante frente a la cuántica en lo que a la química se refiere. Para los químicos, Planck es mucho más importante que Einstein. __________ El sólo enunciado de sus nombres produce un escalofrío de emoción: Planck, Schrödinger (PNF 1933), de Broglie (PNF 1929), Heissenberg (PNF 1932), Bohr (PNF 1922), Pauli (PNF 1945), Born (PNF 1954), Jordan, Einstein, Dirac (PNF 1933), von Neumann,... Durante bastantes años, los físicos de principios de siglo, tenían tanto que descubrir y entender, que la química permaneció olvidada. Pero ya en 1928, Paul Adrien Maurice Dirac escribió en su clásico libro "The Principles of Quantum Mechanics": El conjunto de la física y de la química ha quedado reducido a matemáticas aplicadas. Uno puede hacerse la pregunta retórica ¿como hubiese evolucionado la química si Planck no hubiese descubierto la teoría cuántica? No se trata de entrar en la disputa, que afecta a todos los grandes descubrimientos científicos, de si tienen un momento de madurez intrínseco que hace que necesariamente alguien los "descubra" entonces. Se trata aquí, más modestamente, de imaginarse las consecuencias que hubiese tenido para la química si la mecánica cuántica hubiese permanecido desconocida hasta nuestros días. A mi modo de ver la respuesta es: Hubiese crecido menos, hubiese crecido torcida, pero hubiera crecido. Porque la química responde a las necesidades de los hombres y porque es una ciencia experimental. Aun hoy, la mayoría de los químicos sólo tiene unas nociones muy rudimentarias de química teórica y eso no les impide avanzar. Si se exceptúan las técnicas instrumentales (!pero que excepción!), que la mayoría de los químicos usan como una caja negra, se puede ser un químico razonablemente bueno siendo un semi-analfabeto en física. 3. La estructura de la química 4 A fines de exposición, es conveniente dividir la química en química orgánica, química inorgánica, química física y técnicas físicas o instrumentales. Las otras muchas químicas (química analítica, bioquímica, ingeniería química, etc.) están basadas en esas cuatro disciplinas más algo característico de cada una de ellas: estadística y robótica para la química analítica, fisiología para la bioquímica, mecánica y dinámica de fluidos para la ingeniería, etc. La química supramolecular (sección 10), ni siquiera eso. A continuación discutiremos esos cuatro grandes campos, resumiendo hasta donde hemos llegado y que nos espera en el próximo futuro. Haremos lo mismo con algunos temas específicos, prefiriendo esta estructura a una división global entre presente y futuro que nos obligaría a repetirnos. 4. Química orgánica La esencia de la química orgánica es la creación de enlaces carbono-carbono (si posible, varios a la vez) de la manera más selectiva posible (enantio, estéreo, etc.) y en las condiciones más suaves posibles. Hoy por hoy, las enzimas hacen eso mejor que cualquier químico y va a ser difícil superar a la selección natural aun cuando el químico tiene un arsenal de herramientas que no usa la naturaleza, en particular ciertos metales "exóticos". Se puede considerar a Woodward como el paradigma de la actitud de un químico orgánico frente a los problemas que la plantea la síntesis total de un producto natural. Su posición y la de sus numerosos alumnos es que para cada compuesto existe una síntesis óptima y que para conseguirlo hay que actuar sobre el estado de transición, tal como hacen las enzimas. En otras palabras, hay que introducir en el sistema un catalizador que acerque los reactivos y los coloque en una posición adecuada para que de todas las posibles vías reacciónales sólo una sea elegida. El desorden o multiplicidad de productos de reacción y la velocidad de reacción están ligadas a las colisiones cuya eficacia depende de la distancia y de la orientación relativa de las moléculas que chocan. Muchos químicos prestigiosos han desarrollado metodologías que permiten la creación de varios enlaces simultáneamente (reacciones "tandem", "dominó", etc.), pero si hay que destacar dos contribuciones significativas y respetuosas con las concepciones de Woodward elegiremos la reacción de Sharpless y la metátesis de olefinas. Barry Sharpless (MIT) introdujo en los años ochenta la epoxidación asimétrica de olefinas, en particular de dobles enlaces C=C en alcoholes alílicos para obtener epóxidos, usando como catalizador un derivado de titanio y un tartrato ópticamente activo, pudiendo ser este el (+) o el (-). La idea de que la quiralidad esté en el catalizador fue revolucionaria y estimuló a los químicos, siempre interesados en síntesis asimétrica, a progresar en esta dirección, lo que han conseguido con notable éxito [por ejemplo, con el complejo de titanio(IV) de Carreira, ahora en el Politécnico de Zürich]. En general, es de esperar un incremento en el número de reacciones selectivas para la preparación de moléculas cada vez más complejas utilizando prácticamente todos los elementos de la tabla periódica, lo que llevará, de hecho, a una unificación de la química orgánica e inorgánica (excluyendo la química del estado sólido) en una química molecular (que incluye también a toda la química organometálica, sección 5). La reacción de metátesis es una reacción, conocida de antiguo, pero que gracias a los trabajos de Calderon, Banks, Grubbs y otros químicos, ha experimentado un gran desarrollo. La introducción de catalizadores metálicos de manejo sencillo, ha hecho de esta reacción una de las más interesantes de los últimos tiempos. Consiste en una doble transformación de olefinas que se puede emplear para construir anillos medianos o grandes compuestos supramoleculares (sección 10). La reacción procede formalmente como representado debajo pero el mecanismo real no pasa por un anillo de cuatro miembros sino que es una reacción en cadena en la que intervienen complejos metal-carbeno. 5 2 Aunque en este capítulo hemos evitado, en la medida de lo posible, el uso de fórmulas, debemos recordar algunos hitos en la síntesis orgánica usando ese tipo de representaciones. Además, para el lector no químico, debemos añadir que procediendo así, usando texto en lugar de fórmulas, hemos traicionado, en cierta medida, el espíritu de nuestra disciplina. Las estructuras químicas bidimensionales (que se pueden imprimir) son, para un químico, mucho más ricas en información que las palabras: son los jeroglíficos de nuestro lenguaje. La mayoría de las revistas de la especialidad tienen índices temáticos con dibujos: son mucho más rápidos de sobrevolar que palabras. O NH2 O NH2 O H2N N O N NH2 C N Co H O N N H2 N NH2 O O N NH N O H H HO O O P O O H H Vitamina B12 OH 6 OH O O OH OH OH O HO OH O HO OH OH HO CH3 OH OH OH H2N OH OH OH O HO O N N H H CH3 OH CH3 HO OH OH OH CH3 H3C OH OH O OH O OH H OH HO HO OH OH O CH3 O O OH O Palitoxina HO HO CH3 OH OH H OH OH HO OH OH OH O HO H3C H O H O H CH3 H O O CH3 O H H H O CH3 O H H O H O H O H H O H CH3 H H O CH3 Brevetoxina B CH3 OH H Me O Me Me O OH Me H Me O Me HO Me H Me O H Me Me Me O H O H H O H H OH OH O O Me Me H H OH H OH O H H O H Me HO H O H HO OH H HO OH H O H H O H H OH Me OH O O H OH H O H OH H O H HO OSO3Na OH H OH OH Me O Me H O NaO3SO O H Me H H O H H OH HO O O Me HO O H OH H H H H H H O H O H O H O O H Me O Me H H O OH H OH OH Maitoxina OH 7 Hemos querido sólo recordar cuatro ejemplos, todos de productos naturales: La vitamina B12. Este compuesto fue sintetizado en 1973 por Robert Burns Woodward en Harvard (PNQ 1965) con la colaboración de Albert Eschenmoser del Politécnico de Zürich. La Palitoxina. Preparada en 1989 por Yoshito Khisi, es la molécula sintética con más estéreocentros (64) lo cual quiere decir que tiene 264 formas diferentes (sin contar con la isomería de los dobles enlaces), o lo que es lo mismo, aproximadamente 1,8 x 1019 estereoisómeros, de los cuales sólo uno, el representado en la figura, es idéntico al producto natural. Entre las sustancias más tóxicas están la Brevetoxina sintetizada en 1995 por Kyriacos C. Nicolaou y la Maitotoxina. Esta última sustancia, aislada del dinoflagelado Gambierdiscus toxicus, es el producto natural no peptídico de mayor peso molecular y su estudio ha corrido al cargo de un grupo de investigadores de la Universidad de Tokio. Robert Burns Woodward Finalizaremos este apartado de la síntesis orgánica "tradicional", con una frase de reflexión: Seebach ha recordado lo que solía decir Gilbert Stork, "Por lo tanto no es sorprendente que la síntesis orgánica esté lejos del nivel que mucha gente asume. El progreso continúa, pero no habrá desarrollos dramáticos. Es más como un glaciar que se mueve gradualmente hacía adelante hasta finalmente cubrir una región entera, pero pasarán siglos antes que la síntesis adquiera la posición que mucha gente le atribuye hoy". Pasemos ahora a desarrollar con más detalle el uso de enzimas5 en química orgánica: el tema lo merece ya que toca a la biología, a la catálisis (sección 11), a la química médica (antibióticos, sección 8) y a la química orgánica de síntesis. Las enzimas son los catalizadores de los sistemas biológicos. Casi todas las enzimas conocidas son proteínas aunque también se han encontrado algunas moléculas de RNA catalíticamente activas (ribozimas) pero, hasta donde se conoce, son casos muy excepcionales. En cuanto proteínas no tienen ninguna característica especial: aminoácidos habituales, muchas de ellas son metaloproteínas y pueden tener una o mas cadenas peptídicas. _____________ 5 Recordemos la utilidad de los anticuerpos catalíticos como enzimas artificiales para abordar problemas que no se pueden resolver con enzimas naturales o con métodos sintéticos mas tradicionales. Los resultados obtenidos por Richard A. Lerner en el Instituto Scripps son muy interesantes y con seguridad es este un aspecto de previsible desarrollo. _____________ 8 Desde un punto de vista termodinámico, las enzimas funcionan exactamente igual que un catalizador químico, estabilizando el estado de transición al disminuir la energía libre necesaria para alcanzarlo. Lo que se representa en la Figura 1 como líneas rectas de un solo tramo en la práctica es mucho mas complicado, con una sucesión de estados de transición parciales con pequeños saltos energéticos, compatibles con las reacciones de los organismos vivos que constituyen el campo de aplicación “natural” de las enzimas Estado de transición (ET) sin enzima Energía libre !GO Estado de transición (ES) con enzima !GE Sustrato Producto Progreso de la reacción Figura 1. Desarrollo termodinámico de una reacción sin catalizar y catalizada En cuanto a su aplicación a la Síntesis Orgánica tienen tres características generales especialmente interesantes para un químico: 1) Poder catalítico; 2) Especificidad, sea de reacción, sustrato o de producto; 3) Condiciones experimentales muy suaves. Las enzimas aceleran reacciones multiplicando su velocidad por factores de hasta 107 como en el caso de la anhidrasa carbónica de riñón, que cataliza la hidratación de dióxido de carbono a ácido carbónico y es una de las enzimas mas rápidas que se conocen. Cada molécula de enzima es capaz de hidratar 105 moléculas de CO2 por segundo. De hecho, la mayoría de las reacciones de los sistemas biológicos transcurren a velocidades no perceptibles en ausencia de enzima. Hay un punto completamente básico pero que se olvida con frecuencia: una enzima es un catalizador y no un reactivo, es decir, no puede alterar el equilibrio de una reacción química sino el tiempo que tarda en alcanzarse. Volviendo al ejemplo de la anhidrasa carbónica, supongamos que la constante de equilibrio de la reacción es 106 a un determinado pH, temperatura, fuerza iónica, etc. Esto significa que, una vez alcanzado el equilibrio, la proporción de moléculas de ácido carbónico será un millón de veces la de dióxido de carbono, haya o no haya enzima. Lo que si ocurre es que, si con enzima tarda un segundo en alcanzarse el equilibrio, sin enzima tardaría 10.000.000 segundos, pero el equilibrio al que se llegaría sería el mismo. La segunda característica de gran utilidad en Síntesis Orgánica es la especificidad de reacción, pues una enzima cataliza solo una reacción o un grupo muy próximo de reacciones, como las proteasas, que hidrolizan los enlaces peptídicos, amidas, pero también tienen cierta capacidad esterasa. Simultáneamente, las enzimas tienen selectividad de sustrato y especificidad de producto. El mejor ejemplo referido al sustrato es la DNA polimerasa, con la delicada misión de transmitir la herencia, que en términos de Biología Molecular significa crear una cadena de DNA complementaria a la cadena de DNA que le sirve de molde, seleccionando el nucleótido exacto entre los cuatro posibles. El número de nucleótidos erróneos es inferior a 1 por millón. Ejemplos de la especificidad de producto son las nitrilasas, que adicionan ácido cianhídrico a un aldehído dando como producto la a-cianhidrina ópticamente pura, solo uno de los dos enantiómeros posibles. Esta especificidad tiene la consecuencia favorable de que las reacciones enzimáticas son muy limpias, pues son muy raros los procesos laterales que conducen a la formación de productos 9 secundarios, cualidad muy apreciada en síntesis. A cambio tienen el inconveniente de que, por ser tan selectivas, suele ser muy difícil dar un método general y hay que poner a punto la reacción para cada sustrato en particular. La tercera característica, suaves condiciones experimentales, es consecuencia de la misión natural de las enzimas, pues las reacciones bioquímicas no aceptan grandes saltos energéticos, altas temperaturas o reactivos agresivos. La actividad catalítica de una enzima se realiza en los centros activos, unas cavidades que suponen una porción muy pequeña de la molécula de proteína, formadas con residuos procedentes de puntos separados en la secuencia lineal de la cadena de aminoácidos (incluso pueden pertenecer a distintas cadenas si la enzima no es de cadena única). El sustrato se une a ellos para formar el complejo enzima-sustrato mediante una cascada de sucesivos estados intermedios de transición con pequeños saltos energéticos, que sitúan al sustrato en una "orientación" química (espacial, electrónica, energética,...) adecuada para que se produzca la reacción por el punto exacto. La disposición exactamente definida por los grupos funcionales presentes y su distribución en la cavidad, normalmente hidrófoba, determinan la especificidad de la enzima. Es el viejo modelo intuitivo de llave-cerradura. Esta estructura tan precisa tiene que ser además lo bastante flexible como para permitir los cambios conformacionales que se produzcan al pasar de un intermedio a otro, es decir, tanto la conformación activa como los diferentes intermedios están estabilizados por una serie de interacciones débiles que se forman y deshacen en el transcurso de la reacción: enlaces electrostáticos y de hidrógeno, fuerzas de van der Waals e interacciones hidrófobas. Un exceso de enlaces fuertes, como el covalente, dificultaría estas transformaciones. La inhibición irreversible es cuando un pseudosustrato es capaz de unirse al centro activo pero forma un enlace covalente que necesita demasiada energía para romperse y bloquea la enzima. El ejemplo clásico es como se detiene de forma irreversible la formación de la pared bacteriana con penicilina, pues mimetiza el sustrato natural D-Ala-D-Ala y se une a la transpeptidasa que cataliza la incorporación de este dipéptido de manera covalente formando una molécula penicilina-enzima que es estable indefinidamente. La otra cara de la moneda es que, debido a la necesaria debilidad de estas fuerzas, también se pueden modificar con gran facilidad por causas externas, y las enzimas se inactivan por cambios de temperatura, pH, etc. Normalmente la inactivación comienza de manera reversible, es decir, la conformación del centro activo adquiere un grado de libertad o de distorsión que ya no le permite ejercer su acción catalítica, pero la recupera o al menos parcialmente cuando cesa la acción externa al bajar la temperatura, volver al pH activo, etc. Si continua la perturbación, la estructura terciaria de la proteína se modifica ya de forma irreversible y desaparece la actividad. Está claro que las enzimas, pese a sus inconvenientes, tienen un potencial sintético enorme. Con la excepción de algunos procesos industriales como la hidrólisis de penicilinas que se explica mas abajo, es a mediados de los 80 cuando comienza la aplicación masiva en los laboratorios de síntesis. Este retraso se ha debido a factores tales como, dificultad de obtención, prejuicios o desconocimiento, reacciones no generales, fácil inactivación y uso de un medio acuoso. El factor fundamental de este retraso ha sido el primer punto: imaginemos que, simplemente para probar si una enzima cataliza una reacción tuviéramos que cultivar un hongo o extraer la enzima de un homogeneizado de hojas de espinaca, páncreas de cerdo o hígado de caballo. Sin embargo los procesos netamente biotecnológicos en que se emplea un microorganismo entero son casi tan antiguos como la Humanidad y alguno se sigue empleando sin grandes variaciones: obtención de cerveza y quesos, cocción de pan con levadura, algunos procesos de medicina primitiva e incluso sistemas de cultivo. En cuanto a acciones enzimáticas, en 1831 se aprecia la existencia en la saliva de algo capaz de pasar el almidón a azúcares, algo que siguen empleando algunos pueblos primitivos para obtener bebidas alcohólicas por fermentación de vegetales que han sido previamente masticados. Las primeras publicaciones serias de enzimas comienzan en los años 20 y en 1926 Sumner obtiene la primera enzima cristalizada, una ureasa aunque no muy pura. En 1940 se han obtenido ya unas 20 enzimas altamente purificadas. Estas purificaciones eran verdaderamente heroicas pues, 10 con los métodos disponibles, hacia falta tratar muchos kilos de hígado de animales de matadero para obtener unos miligramos de esterasa activa. El gran impulso al estudio de enzimas y fermentación viene dado por las propiedades maravillosas de la penicilina y el éxito que se consigue en su aumento de producción. Se toman muy en serio los sistemas de muestreo de suelos, residuos orgánicos, etc. en busca de microorganismos capaces de producir sustancias o actividades interesantes. Esto condujo a perfeccionar los sistemas de fermentación y purificación de enzimas en general y ya a lo largo de los años 70 y 80 aparecen enzimas comerciales a precios asequibles. En la actualidad basta abrir los catálogos para comprobar que la oferta es muy amplia, y el hecho de que una enzima sea comercial implica que es relativamente activa, estable y fácil de manejar. Precisamente la hidrólisis de las penicilinas naturales (G o V), obtenidas por fermentación de cepas superproductoras de Penicillium acemonium, al ácido 6-aminopenicilánico (6-APA) fue una de las primeras aplicaciones industriales de las enzimas en sustitución de un método químico que, si bien era muy eficaz, era mucho mas caro en razón de los reactivos y disolventes empleados y ecológicamente inaceptable por los residuos que generaba. Muy negativo ha sido el tradicional desconocimiento y prejuicios de los químicos hacia los sistemas biológicos, en gran parte generado por los nombres de las mismas enzimas que han supuesto con mucha frecuencia una barrera a su aplicación. Un buen ejemplo es el caso de la glucosa oxidasa. Ese nombre significa que cataliza la oxidación de D-glucosa a D-gluconolactona con oxígeno (O2) y dando agua oxigenada (H2O2, peróxido de hidrógeno) como subproducto, en presencia de un cofactor de flavina, y esta reacción es probablemente una función fisiológica de la enzima. Esto es verdad pero no toda la verdad, pues no quiere decir que no pueda catalizar otras reacciones. Si bien es altamente especifica para el donador de electrones (D-glucosa), no lo es para el aceptor de electrones (O2) que puede ser reemplazado por otro cuya forma reducida sea un producto comercialmente valioso. Es el caso de la hidroquinona que se emplea en la industria fotográfica como inhibidor de autooxidación en el proceso de revelado. Se encontró que la oxidación de Dglucosa con glucosa oxidasa inmovilizada por unión covalente a alúmina, en presencia de benzoquinona y en condiciones anaerobias es tres veces mas rápida que utilizando O2 como aceptor electrónico (reacción "normal y se obtiene hidroquinona con rendimiento casi cuantitativo. Este trabajo nos parecería ahora ingenioso pero normal, de los muchos que vemos actualmente en las revistas de reacciones con enzimas cuyos nombres sugieren especificidad absoluta actuando sobre sustratos que en nada recuerdan a los naturales, pero en 1982 constituía una gran novedad. Fue seguido inmediatamente por otros en que no solo se empleaba un sustrato no natural sino que además la enzima catalizaba la reacción de una forma esteroespecífica, que ha sido siempre uno de los grandes problemas de la síntesis, así que el inconveniente de la especificidad de sustrato se puede soslayar en muchos casos y se convierte en la gran ventaja de especificidad de producto. El medio acuoso fue un gran responsable de la baja utilización de las enzimas en laboratorio. En el desconocimiento de los químicos hacia los sistemas biológicos se aceptaba como axioma que las enzimas solo pueden funcionar en agua y se desactivan en contacto con un disolvente orgánico, y el agua no es disolvente usual en Síntesis Orgánica, ya que: El agua no es un buen disolvente de los sustratos orgánicos. El agua reacciona con muchos compuestos orgánicos. El agua participa de muchos equilibrios químicos desplazándolos en un sentido. La purificación de productos orgánicos a partir de soluciones acuosas es más difícil. El primer inconveniente está claro pues más de un 95 % de los compuestos orgánicos no son solubles en agua. Los otros puntos, muchos compuestos son inestables en agua y en otros casos, el agua participa en equilibrios. Y además están los problemas de manipulación en medio acuoso, siempre mas complicado que el orgánico. Está claro que el agua es imprescindible para estabilizar la conformación activa de la enzima y actúa como "lubricante" de los cambios conformacionales que se dan durante la catálisis. Pero la 11 pregunta no es si el agua es necesaria sino cuanta agua es necesaria, porque es difícil imaginar que una enzima pueda "sentir" más allá de una o unas muy pocas capas de moléculas en torno suyo, y de aquí surge la hipótesis básica del trabajo: ¿se puede sustituir la masa de la reacción, solución acuosa, por una solución en otro disolvente?. El desarrollo de esta pregunta ha dado lugar a cuatro sistemas principales que incluyen disolventes orgánicos, por orden cronológico: Mixto: Soluciones acuosas con un cosolvente orgánico miscible. Bifásico: Agua y disolvente orgánico inmiscible. Micelas reversas. Disolvente orgánico anhidro. Los dos primeros son intentos de ampliar los beneficios de la catálisis enzimática a productos insolubles en agua. En los sistemas mixtos con cosolvente se emplea habitualmente acetonitrilo, acetona, etc., en proporciones de hasta 15 o 20 %. Casi nunca se emplea dimetilsulfóxido, por ejemplo, porque suelen ser capaces de disolver las enzimas y la desnaturalización es inmediata. Se han obtenido muy buenos resultados con este sistema y hasta se consigue con buenos rendimientos la síntesis peptídica con α-quimotripsina en EtOH 50 % pues, en ciertas condiciones de pH y temperatura, hay una importante diferencia cinética en los dos sentidos del equilibrio, mucho mas rápida la amidación de un éster que su hidrólisis. También se han logrado buenos resultados con el sistema bifásico (tampón y acetato de etilo) aunque menos que en el sistema mixto debido a la complicación que supone la transferencia de productos entre las dos fases. Un refinamiento del sistema bifásico son las micelas reversas: la enzima se encuentra en solución, en minúsculas gotas emulsionadas mediante un detergente en una masa de disolvente orgánico. El interés de este sistema ha sido puramente teórico hasta hace poco tiempo que han comenzado a describirse algunas reacciones con valor preparativo. El cuarto sistema si introduce un cambio total pues las enzimas ya no se encuentran disueltas sino que están sólidas en suspensión en disolventes casi anhidros y realmente surge como una extrapolación de los sistemas bifásicos cuando se va reduciendo el volumen de la fase acuosa hasta reducirla a la simple impregnación de un soporte sólido poroso. Este sistema es potencialmente el de mayor aplicación en síntesis y con el se han conseguido los mayores éxitos, especialmente en el campo de la Química Fina, pequeñas cantidades de productos de alto valor añadido y que serían muy difíciles de obtener con métodos clásicos de síntesis: resolución de enantiómeros y reacciones enantioespecíficas, reacciones regioselectivas de aminoácidos y azúcares, reacciones con o hacia productos inestables, etc. Como resumen se puede concluir que las enzimas son herramientas muy útiles en síntesis orgánica, especialmente cuando se trata de elegir entre dos o mas posibilidades, es decir, reacciones selectivas para cualquier tipo de isomería, y en lo que se refiere a manipulación de compuestos inestables pues las condiciones de reacción de las enzimas son muy suaves, a temperaturas fisiológicas o poco más, pH en torno al neutro y sin reactivos químicos agresivos. La suma de estas dos ventajas lleva a que los procesos enzimáticos son muy simples, hasta el punto de sustituir con ventaja procesos químicos muy buenos. Su principal inconveniente es su implícita falta de generalidad que exige poner a punto cada proceso, pero en la práctica no es muy complicado precisamente por la simplicidad de los procesos enzimáticos, que permiten obtener mucha información en muy poco tiempo y con un gasto mínimo de productos. 5. Química inorgánica Es conveniente, a fines pedagógicos, dividir la química inorgánica moderna en química organometálica, química de coordinación, química del estado sólido y química bioinorgánica, que luego pasaremos a definir. Pero para evitar todo malentendido, vaya por delante que las fronteras entre ellas son muy difusas y que hay muchos temas de investigación que pertenecen a dos o a tres divisiones. Citemos como caso muy relevante y difícil de clasificar el aislamiento del catión N5+ en forma de hexafluoroarseniato (AsF6–). Cuando los químicos logren aislar el anión del 12 pentazol (N5–) se podrá construir una sal sin carbono, puramente inorgánica ([N5– N5+] probablemente un terrible explosivo) pero al mismo tiempo muy “orgánica”, ya que relacionada con el anión del ciclopentadieno y con los cumulenos: N N N N N N N N N N Aun así, quedan aspectos de la química inorgánica (gases nobles, flúor) que encajan mal en la anterior división. Química organometálica es la química de los compuestos con enlaces metal-carbono. La elección es difícil, pero si hemos de elegir un representante del pasado reciente y uno del futuro inmediato, dos nombres posibles son los de Wilkinson y Schrock. Geoffrey Wilkinson (PNQ 1973) escribió con F. A. Cotton una obra titulada "Advanced Inorganic Chemistry" que ha tenido una gran influencia sobre sucesivas generaciones de estudiantes. Un gran libro de texto (otro célebre es "el March", J. March "Advanced Organic Chemistry") debe ser considerado como una gran contribución al progreso de la ciencia, aunque las aportaciones de su autor sean relativamente pequeñas, lo cual obviamente no es el caso de Wilkinson. Se puede considerar a este químico inglés como uno de los fundadores de la química organometálica (junto con Ernst Otto Fischer, el químico alemán con el que compartió el PNQ). El catalizador de Wilkinson, un complejo de rodio con cloro y ligandos fosforados, ha jugado y juega un papel importante en química orgánica: transformación de aldehidos en hidrocarburos, reducción de olefinas (pasar de un enlace doble C=C a un enlace sencillo C-C), desulfonación, etc. son algunas de sus aplicaciones. De aproximadamente cincuenta años de edad, Richard R. Schrock, químico inorgánicoorganometálico del MIT, científico extraordinariamente brillante (alquilidenos o carbenos de Schrock entre otros grandes logros), con muchos años por delante. Sus trabajos están relacionados con la reacción de metátesis de olefinas (sección 4) en su variante asimétrica, con la síntesis de polímeros ordenados (sección 9) y otros muchos temas de gran relevancia. Geoffrey Wilkinson y Richard R. Schrock Tanto Wilkinson como Schrock han unido su nombre al de catalizadores, tema estrella de la química inorgánica en la vertiente de los complejos metálicos de coordinación y de los correspondientes catalizadores regio, estéreo y enantioespecíficos. 13 Dentro de la química de coordinación (enlaces metal con elementos del sistema periódico diferentes del carbono) pueden situarse los esfuerzos para activar el nitrógeno N2 (su nombre correcto es dinitrógeno). La transformación del nitrógeno en amoniaco (proceso Haber-Bosch) (Fritz Haber, PNQ 1918, Carl Bosch, PNQ 1931) ha sido y aun es uno de los grandes descubrimientos de la química, cuyas consecuencias económicas son incalculables. Es sorprendente que, a pesar de muchos esfuerzos, sólo en tiempos recientes se han logrado progresos significativos que auguran resultados importantes para el próximo siglo. El problema de la química del dinitrógeno (N≡N) es que es necesario romper uno de los enlaces más fuertes entre dos átomos. Los esfuerzos para activar el dinitrógeno avanzan en dos frentes independientes bastante alejados uno del otro. Uno es el uso de compuestos de coordinación como catalizadores (sección 11) y otro es el estudio del mecanismo de la enzima nitrogenasa presente en las bacterias que transformar el N2 en NH3. Los primeros (Cummins) utilizan complejos de molibdeno con ligandos nitrogenados, complejos de niobio unido a calixarenos y complejos de circonio unido a fósforo y nitrógeno. El objetivo de estos estudios no es la transformación en amoniaco, sino más bien transformar directamente N2 en compuestos más elaborados, tales como hidracina, enlaces carbononitrógeno, heterociclos nitrogenados, etc. Los grupos que trabajan en la nitrogenasa tratan de mimetizar sus propiedades. Esta enzima contiene hierro (Fe, como el catalizador Haber-Bosch) y molibdeno (Mo, como los complejos de Cummins). Su extraordinaria eficacia está ligada a unas restricciones geométricas difíciles de imitar en el laboratorio. Gracias a las estructuras de rayos X determinadas por Rees en California, se empieza a entender como funciona la enzima. La síntesis de cofactor Fe-Mo es un tema de gran dificultad al cual se están atacando muchos de los mejores grupos de química de coordinación. En los últimos años, las relaciones entre los complejos de dihidrógeno (enlaces σ) y los hidruros metálicos (dos formas de unirse hidrógeno a un metal) están despertando mucho interés, tanto por sus propiedades fundamentales (acoplamientos cuánticos), como por sus posibles usos como agentes de hidrogenación. Química del estado sólido. La obtención de óxidos metálicos compuestos para su uso como superconductores a altas temperaturas, las cerámicas resistentes a temperaturas elevadas (satélites, lanzadera espacial, vitrocerámicas, etc.), y la oblea de silicio dopada son, posiblemente, las realizaciones mas importantes en este apartado. En la química del estado sólido la síntesis de nuevos materiales (polímeros, cristales líquidos, coloides metálicos, nanoclusters, materiales con propiedades ópticas no lineales, eléctricas o magnéticas de interés) ha tenido una gran trascendencia y es un campo apenas abierto para el que se prevé un desarrollo espectacular en los próximos años. Es posible depositar películas mono y multi-capa, compuestas de coloides inorgánicos aniónicos (derivados de zirconio, niobio o tántalo) y de policationes orgánicos, sobre superficies por auto-organización (sección 10). Estos materiales son útiles como colectores lumínicos acoplados a sistemas de transferencia electrónica, es decir, en electrónica molecular. Es notable que tanto fulerenos como nanotubos, dos de los más espectaculares logros de la química orgánica supramolecular, pueden ser construidos con sulfuros de los primeros metales de transición. Así, Reshef Tenne del Instituto Weizmann, ha usado molibdeno, por ejemplo, en forma de MoS2, para preparar excelentes lubricantes. El esclarecimiento de la química en la interfaz sólido-molécula (catálisis heterogénea: mecanismos y naturaleza de los intermedios) necesita de realizar un esfuerzo reduccionista semejante al que se ha seguido durante el último siglo en química molecular. Química bioinorgánica. A nadie le sorprenderá que en los procesos que ocurren en los seres vivos, los metales y su capacidad de óxido-reducción, juegan un papel fundamental. Naturalmente, un ser vivo muere si cualquiera de las componentes químicas desaparece y enferma si bajan de un cierto umbral. No es que los metales sean más "vitales" que los azúcares o los 14 aminoácidos, son simplemente iguales en importancia. Esta reiteración es útil para rectificar una imagen demasiado "orgánica" de la vida. En este campo hay que citar los trabajos de Henry Taube (PNQ 1983) y sus estudios sobre los procesos redox, en especial sobre el mecanismo de las reacciones de transferencia electrónica de los compuestos de coordinación, de enorme trascendencia en esta rama de la química, sin olvidar los resultados obtenidos por los nobelizables R. Holm y H. B. Gray. 6. Química física Probablemente es el campo de la química más difícil de resumir y ello por varias razones. 1) Tiene una frontera común mal definida con la física6; 2) cubre casi todos los aspectos de la química (hay quien dice que toda la química es química física); 3) sus diferentes ramas están muy especializadas haciendo que, incluso entre los que las practican, tengan dificultad de comunicación. ____________ 6 A título de curiosidad, la Sociedad Química Americana (ACS) y la Sociedad Física Americana (APS) tienen dos revistas, respectivamente, Journal of Physical Chemistry y Journal of Chemical Physics, que recogen publicaciones muy parecidas. _____________ Peter Atkins, probablemente el más célebre autor de libros de texto, tanto de Química General como de Química Física, ha escrito una frase que no nos resistimos a traducir: "Si tuviese que fundar un Instituto de Química Física que nos llevase a través de los próximos mil años, estaría dedicado a la química física de la vida. La química física ha pasado su siglo de formación en los jardines de la infancia de la complejidad, aprendiendo primero a hacer frente a los gases perfectos y las soluciones ideales, emergiendo luego la extraordinaria utilidad de la termodinámica de los sistemas en equilibrio y la comprensión de la estructura de los átomos, moléculas y de sus agregados sencillos. Se ha mostrado capaz de capturar posición decimal tras posición decimal en el universo etéreo de la espectroscopía en fase gas y ha empezado a explicar los sucesos en una escala de tiempos en que la química empieza a devenir física con las reacciones prácticamente congeladas en el tiempo. Ahora se encuentra equipada para penetrar en la impresionante complejidad de la vida, mostrando su subyacente sencillez. ¿Como equiparía mi Instituto? Mis cuatro departamentos principales estarían basados en el uso de láseres (sección 7), en una fuente de radiación sincrotrón para la difracción (sección 7), en resonancia magnética (sección 7) y en la computación". En esta sección vamos a ocuparnos, casi exclusivamente, de química computacional en sus dos vertientes: tanto cálculos teóricos como modelado molecular. El primero de ellos comienza a ser una herramienta de uso corriente en el laboratorio como apoyo a otras técnicas y para probar diferentes hipótesis (mecanismos de reacción, conformaciones accesibles, estados de transición, etc.). El modelado molecular, por otra parte, ha permitido estudiar grandes sistemas incluso en fases condensadas (estado sólido o en disolución). Esto ha permitido estudiar interacciones fármacoreceptor así como proponer nuevos fármacos. Es de esperar que en un futuro próximo se verá un avance en el desarrollo de algoritmos más realistas para el estudio de fases condensadas en los cálculos teóricos y el estudio de estados excitados. Ambos aspectos se podrán emplear para mejorar los algoritmos actuales utilizados en modelado molecular. En particular, para el análisis y la predicción del plegamiento de proteínas (sección 12) Puede parecer sorprendente pero sólo a las postrimerías del siglo XX se ha empezado a tener una idea clara de las propiedades del agua (punto de fusión, punto de ebullición, estructura del hielo, etc.).7 La convergencia de estudios experimentales en fase gas de agregados ("clusters") de 15 agua a muy baja temperatura y de cálculos teóricos de tales agregados (hasta 26 moléculas de agua), están a punto de alcanzar la compresión del diagrama de fase del agua, incluido el famoso punto triple que sirve a definir las escala Kelvin de temperatura (por definición, hay exactamente 273,16 K entre el cero absoluto y el punto triple del agua). ___________ 7 Las propiedades de los compuestos químicos son debidas a grandes colecciones de moléculas ya que son propiedades estadísticas. Una molécula de agua no tiene punto de fusión. __________ Una molécula de agua tiene dos grupos O-H y dos pares de electrones libres sobre el átomo de oxígeno, es pues un doble dador y un doble aceptor de enlaces de hidrógeno: O H H2O O H H2O O H O H H H H H H O H Dímero O H H Uno de los posibles trímeros Autoasociación del agua Ello le confiere una enorme capacidad de autoorganizarse (líquido y diferentes tipos de hielo) y de organizarse alrededor de otras moléculas, ya sean xenobióticas, como el benceno, ya moléculas de la vida, como el ADN. En lo que concierne al futuro desarrollo de la computación, uno de los aspectos que más interesan al químico es el de poder obtener información sobre los estados de transición de manera a entender más profundamente los mecanismos de reacción y sobre todo, a poder intervenir en dichos estados para dirigir la síntesis según nuestros objetivos (ver sección 4). Cada vez son más los resultados experimentales que coinciden con antiguas predicciones teóricas, así, por vez primera se han logrado imágenes de un orbital d: estos experimentos confirman la teoría: son exactamente iguales que en los libros de texto! Entre las propiedades termodinámicas está el gran campo de los disolventes a cuya modelización tanto contribuyó Robert W. Taft y que se ha enriquecido en los últimos años con los 16 líquidos supercríticos, el agua superfluida, etc. Recientemente ha aparecido una nueva clase de disolventes, los líquidos iónicos. Estos compuestos son sales (anión inorgánico, catión orgánico, tal como el hexafluorofosfato de 1-metil-3-butilimidazolio) descubiertas por Kenneth R. Seddon en Belfast. Estos disolventes, líquidos entre 0 y 200 ºC, aceleran notablemente muchas reacciones, no tienen presión de vapor detectable y son reciclables: les espera un prometedor uso en la industria. 7. Métodos físicos Un laboratorio de química a finales de siglo necesita imprescindiblemente dos métodos descubiertos por los físicos pero hoy en manos de los químicos: la resonancia magnética nuclear (RMN, que los médicos llaman, por eufemismo, resonancia magnética) y cristalografía de rayos X. Además necesitan un método analítico que bien pudiera ser la cromatografía de líquidos de alta resolución acoplada con espectrometría de masas. En lo que se refiere a la RMN, esta técnica ha cambiado en primer lugar el análisis de los compuestos sintetizados. En un segundo apartado está su aplicación para la determinación estructural (conformación) de pequeñas y grandes moléculas siendo posible hoy en día el análisis de proteínas completas. En un futuro no muy lejano se empezará a usar software capaz de analizar de forma automática complejos espectros de proteínas, proporcionando de forma rápida y fiable estructuras tridimensionales. Más tarde, el desarrollo de la RMN permitirá el seguimiento, en tiempo real, de los procesos que ocurren en los seres vivos (crecimiento y degradación). Richard R. Ernst y Alexander Pines ¿Son de esperar grandes cambios en esta técnica, comparables con la revolución que supuso la introducción de la transformada de Fourier por Richard R. Ernst (PNQ 1991)? Una de las posibilidades será cuando se consigan imanes supraconductores a altas temperaturas ya que ello tendrá un efecto inmediato en RMN. Más revolucionarias son las investigaciones de Alexander (Alex) Pines (Universidad de California, Premio Wolf y candidato al PN), el uso de las técnicas basadas en transiciones a doble quanta, el empleo del xenón (isótopo 128, spin 1/2) para examinar el sistema respiratorio y el cerebro, el estudio de sólidos que contienen núcleos paramagnéticos. Alex Pines ha anunciado recientemente la posibilidad de construir aparatos de resonancia magnética de imagen (MRI) con electroimanes convencionales, lo cual pondría esta técnica al alcance de cualquier consultorio primario. En lo que se refiere a la difracción de rayos X, hay que decir que esta técnica no está tan integrada en el mundo de los químicos como la RMN, debido a su mayor dificultad y rendimiento. 17 Si comparamos todas las estructuras de compuestos orgánicos, organometálicos y de coordinación descritos en la bases de datos de Cambridge, unas 210.000, con el número de espectros RMN realizados en el mismo periodo de tiempo, cientos de millones, quinientas veces más, es evidente el espacio que ambas técnicas ocupan en la práctica cotidiana de los químicos. Aunque aquí nos limitaremos a la difracción de rayos X, por ser la más accesible, no debemos de olvidar tanto la difracción de neutrones como el uso de la radiación sincrotrón. Explica Jack D. Dunitz (E.T.H., Zürich), uno de los grandes cristalógrafos contemporáneos, como ha evolucionado la cristalografía de rayos X en sus cincuenta años de actividad. Al principio era un difícil, trabajoso y altamente especializado método de estudiar las estructuras cristalinas y moleculares, que necesitaba de un conocimiento profundo de sus fundamentos y de una buena intuición para imaginar la estructura correcta de un compuesto, incluso de uno sencillo. Hoy en día, un conjunto de procedimientos altamente automatizados, de carácter más o menos rutinario, que necesitan más de la habilidad para manipular programas de ordenador que profunda reflexión o gran imaginación. Ha ello ha contribuido esencialmente el desarrollo de la informática (sección 12) y la introducción primero de los llamados métodos directos de resolución de estructuras cristalinas (parte computacional) y luego de los detectores de área (parte instrumental). Para el futuro hay que esperar mejoras en los métodos existentes más que algo radicalmente nuevo. Entre esos métodos ya conocidos pero que van a experimentar un gran auge, destacaremos, a nivel de programación, más aplicaciones de los métodos de máxima entropía o el análisis topológico de mapas de Fourier así como un uso más frecuente de los diagramas de difracción de polvo microcristalino para determinar la estructura de compuestos de talla media. También se espera que los detectores de área faciliten la determinación de estructuras desordenadas, que se use más la cristalografía de rayos X para estudios dinámicos en cristales así como para establecer experimentalmente los mapas de densidad electrónica, si bien en este último caso, entran en concurrencia con los cálculos mecanocuánticos, mucho más rápidos.8 En fin, para un futuro más lejano queda la predicción del empaquetamiento cristalino, hoy balbuceante, lo que implica un conocimiento de los procesos de crecimiento y nucleación de cristales. No conviene olvidar el formidable instrumento de trabajo de las bases de datos de Cambridge y de Brookhaven, que crecen exponencialmente (sección 12) y la importancia de la difracción de neutrones para el estudio estructural de moléculas biológicas y organismos enteros (virus). ___________ 8 Es notable el cambio de paradigma que afecta a las relaciones entre valores calculados y experimentales. Se ha dicho, medio en serio, que "para que medirlo, si se puede calcular". El único caso de discrepancia entre geometrías calculadas y geometrías experimentales afectaba a la molécula de 3-etinilciclopropeno. Según la determinación por rayos X esta molécula poseía el doble enlace C=C más corto conocido (1.255 Å), según los cálculos teóricos el valor era de 1.296 Å, típico de un ciclopropeno. Según el Profesor Dunitz, la discrepancia proviene de haber despreciado correcciones relacionadas con el movimiento de la molécula en el cristal. Es decir, !tenía razón el cálculo! 18 ____________ En el campo de las biomoléculas, destacar sobre todo el uso de la radiación sincrotrón, y su aplicación en la determinación de la estructura de macromoléculas tanto en estado sólido como en disolución. Debería ser posible seguir por estas técnicas (y otras como las de correlación fotónica) la evolución de las moléculas en solución y "verlas" reaccionar. Mucho de lo que ahora tenemos que imaginar o simular con un ordenador, será próximamente evidencia experimental. El conjunto de técnicas conocidas con las iniciales SPM (Scanning Probe Microscopies) entre las que destaca la STM (Scanning Tunneling Microscopy, microscopía de barrido por efecto túnel, por el que recibieron el PNF 1986 sus descubridores Gerd Binning y Heinrich Rohrer) representan un cambio revolucionario para la química: !por fin se ven los átomos de Dalton! Al contrario que las demás técnicas instrumentales que trabajan sobre unas enormes colecciones de moléculas,9 la STM "ve" una molécula determinada. Se dice que en cada vaso de agua que bebe un inglés hay una molécula de agua que ha transitado por la vejiga de Cromwell. Cuando vemos, en un experimento de STM, un átomo de oxígeno de una molécula de agua, estamos viendo algo viejo de millones de años, con una historia apasionante, tanto química (¿fue CO2 o SiO2) como biológica (¿quitó la sed a Cromwell?). __________ 9 Hay que tener conciencia de la tremenda magnitud del número de Avogadro (6.022 x 1023). Un mol contiene aproximadamente 1024 moléculas y un compuesto químico medio tiene una masa de 500 daltons. Eso quiere decir que 500 g de ese producto contienen 1024 moléculas. Una determinación estructural por RMN requiere 5 mg (1019 moléculas) y un cristal para difracción de rayos X puede pesar 0,5-0,05 mg (1018 a 1017 moléculas) __________ Naturalmente, todo tiene un precio. Los químicos están muy interesados en obtener información de una muestra visible al ojo, bien para conocer su pureza bien para determinar su composición en caso de una mezcla. Para eso, una técnica de observación de moléculas aisladas no es útil. Por otro lado, que extraordinarias posibilidades ofrecen las SPM. Ya se ha conseguido determinar la configuración absoluta de una molécula por STM y eso es sólo el principio. En el siglo XXI puede convertirse en la manera más rápida y segura de abordar los problemas de quiralidad. Hemos guardado para el final, uno de los más fascinantes avances de finales del siglo XX: el desarrollo de los láseres pulsantes que en un periodo de tiempo relativamente corto han permitido el desarrollo de la química del fentosegundo (Femtoquímica) acercándose hacía los attosegundos y el muro del principio de incertidumbre. Aquí, destaca el nombre Ahmed H. Zewail (PNQ 1999), pero muchos otros espectroscopistas en el mundo trabajan en esa dirección que necesita la interacción con químicos teóricos que sepan abordar los problemas dinámicos de los estados excitados, tales como Jörn Manz (Berlín). Zewail, de origen egipcio, ocupa la cátedra Linus Pauling en el prestigioso California Institute of Technology. 8. Química y medicina El que muchos medicamentos tengan un origen "natural" merece que le dediquemos un pequeño comentario. Es un hecho bien conocido que todos los seres vivos, a excepción de los virus y, prácticamente, los mamíferos, producen sustancias que los humanos pueden utilizar como fármacos. De los hongos (penicilinas), a las plantas (morfina), a los árboles (taxol, un antitumoral), a los organismos marinos (Briostatina, para el tratamiento de la leucemia), y a los batracios 19 (epibatidina, un analgésico no opiode) la lista es interminable. En un futuro próximo, mamíferos genéticamente modificados serán fuente usual de sustancias complejas útiles como medicamentos. Epipedobates tricolor Hay dos posibles explicaciones al gran papel que los productos naturales han jugado y, sin duda, jugarán en el descubrimiento de medicamentos. La primera es histórica: antes de la llegada de la era de la química, la única fuente de estructuras complejas eran los seres vivos. Como aún no está agotado el acerbo de conocimientos de las medicinas primitivas, esta fuente de inspiración debería mantenerse algún tiempo. Pero esta explicación sólo puede ser parcial ya que se encuentran medicamentos en organismos nunca ensayados por la humanidad. Planteado racionalmente, eso quiere decir que es más probable que una sustancia (generalmente un metabolito secundario -denominado así porque no es esencial para la supervivencia del individuo-) presente en un ser vivo sea biológicamente beneficiosa para un ser humano o un mamífero de laboratorio (ratón, rata, cobaya, conejo, perro, mono) que un producto químico "artificial", sintetizado al azar. La única razón para que el tejo contenga en su corteza una sustancia anticancerosa, tiene que ser la profunda relación genética entre todos los seres vivos. Obviamente, al tejo le traen sin cuidado los humanos, ni siquiera tiene cáncer de mama. Para complicar más el problema, con frecuencia el producto natural tiene que ser modificado "artificialmente", en menor o mayor grado, para obtener un medicamento. Hemos reunido en la Tabla 1 una serie de principios activos usuales, sus aplicaciones y su origen: N, natural, SS, semi-sintético (preparado a partir de un producto natural) o A artificial. Tablea 6.1 Origen de los principales medicamentos ________________________________________________________________________________ Rango 1 2 3 4 5 6 7 8 9 10 11 12 Nombre genérico Clase terapéutica Omeprazol Simvastatina1 Fluoxetina2 Ranitidina Amlodipina Enalapril Amoxicilina Sertralina Paroxetina Ciprofloxacina Etinilestradiol Hidroclorotiazida Antiulceroso gástrico Hipocolesterolémico Antidepresivo Antagonista-H2 (Antiulceroso gástrico) Antihipertensivo (bloq. canales de Ca) Antihipertensivo (inhibidor de la ECA) Antibiótico Antidepresivo Antidepresivo Antibacteriano (quinolona) Contraceptivo oral Diurético Origen A N A A A A SS A A A SS A 20 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 Codeina Albuterol Digoxina Penicilina V Furosemida L-Tiroxina Triamtereno Alprazolam Eritromicina Naproxeno Nifedipina Diltiazem Noretindrona Verapamilo Cefaclor Insulina Hidrocodona Gliburide Prednisona Terfenadina Ibuprofeno Atenolol Norgestrel Captopril3 Dipiridamol Nitroglicerol Cefalexina Acido clavulánico Lisinopril Cimetidina Lorazepam Metoprolol Teofilina Diazepam Fenitoina Warfarina Amitriptilina Trimetoprim4 Tetraciclina Gemfibrozil Diclofenac Aciclovir Famotidina Doxiciclina Propranolol Astemizol Cis-platino Ketoconazol Ondansetron Paracetamol Tacrina Taxotere5 Analgésico (Antitusígeno) Agonista b2 (Antiasmático) Cardiotónico Antibiótico Diurético Hipotiroidismo Diurético Anxiolítico (benzodiazepina) Antibiótico Antiinflamatorio Antihipertensivo (bloq. canales de Ca) Antihipertensivo (bloq. canales de Ca) Contraceptivo oral Antihipertensivo (bloq. canales de Ca) Antibiótico (cefalosporina) Hipoglicémico Analgésico narcótico, antitusivo Hipoglicémico, antidiabético Esteroide antiinflamatorio Antihistamínico Antiinflamatorio Antihipertensivo (β-bloqueante) Contraceptivo oral Antihipertensivo (inhibidor de la ECA) Vasodilatador coronario Vasodilatador coronario Antibiótico (cefalosporina) Inhibidor de β-lactamasa Antihipertensivo (inhibidor de la ECA) Antagonista-H2 (Antiulceroso gástrico) Anxiolítico (benzodiazepina) Antianginoso (β-bloqueante) Antiasmático Anxiolítico (benzodiazepina) Antiepiléptico Anticuagulante Antidepresivo Antibacteriano Antibiótico Hipocolestrolémico Antiinflamatorio Antiviral Antagonista-H2 (Antiulceroso gástrico) Antibiótico Antiarrítmico (β-bloqueante) Antihistamínico Anticanceroso Antimicótico Antiemético Analgésico Anti-Alzheimer (colinérgico) Anticanceroso N, SS A N SS A N A A N A A A SS A SS N SS A N A A A SS A A A SS N A A A A N A A A A A N A A SS A SS A A A A A A A SS 21 65 66 67 68 Sildenafil6 Zanamavir7 Celecoxib8 Zidovudina Disfunciones sexuales Antiviral Antiinflamatorio nueva generación Antiviral (HIV) A A A A N: Natural, SS: Semisintético; A: Artificial 1: Análogo sintético del producto natual Lovastatina. 2: Comercializado como Prozac. 3: Diseñado por odenador. 4: Combinado con Sulfometoxazol. 5: El producto natural, Taxol (Paclitaxel), también es comercial. 6: Comercializado como Viagra. 7: Comercializado como Relenza, este fármaco, inhibidor selectivo de la neuraminidasa, ha sido diseñado por modelización molecular. 8: Comercializado como Celebrex. Hoy día, aparte de los antibióticos y los esteroides, la inmensa mayoría de nuestra farmacopea resulta del ingenio de los químicos y farmacéuticos. Eso va a cambiar con el paso del tiempo debido a una serie de factores: 1.- Cuando el proyecto Genoma Humano, que estará acabado hacia el 2003, revele los secretos del ADN humano, será posible para químicos y biólogos moleculares unir fuerzas y empezar a diseñar agentes específicos que refuercen o debiliten la actividad de los genes. 2.- En síntesis destaca la enorme importancia de los métodos combinatorios, tanto en la producción de sustancias de interés biológico como en catálisis. 3.- La química en biología y en medicina, en algún caso ya comentada antes: comprensión de los procesos fundamentales de la vida, estructura de biomoléculas, desarrollo de nuevos fármacos, la química prebiótica... y naturalmente la neuroquímica. El descubrimiento reciente más importante han sido las aproximaciones combinatorias a la Química. Esto ha supuesto la inversión de la tendencia hacia la búsqueda de métodos cada vez más selectivos para la preparación de moléculas cada vez más complicadas estructuralmente y con mayor número de centros quirales. La Química Combinatoria representa, no la convergencia hacia métodos cada vez más selectivos y más controlados, sino la divergencia que supone querer preparar productos cada vez más diversos estructuralmente aún a costa de perder, al menos inicialmente, algo de control sobre la marcha de cada reacción y de cada estructura. La Química Combinatoria es un conjunto de metodologías químicas encaminadas a la preparación de productos químicos, generalmente en grandes números, que cubran determinadas áreas del espacio químico. La preparación de esta diversidad química se lleva a cabo mediante la reacción, de forma combinatoria, de una serie de moléculas, que son fragmentos o monómeros, que componen los productos finales que forman la librería. Debido a su madurez como ciencia, la Química se había convertido en los últimos decenios en una herramienta al servicio de otras como la Biología, la Ingeniería, etc., y proporcionaba los productos químicos que la Medicina, la ciencia de materiales, la tecnología de alimentos, etc., necesitaban para su progreso. Esto se hacía siguiendo una metodología desarrollada básicamente en la primera mitad del siglo XX. La Química Combinatoria ha supuesto un giro copernicano, y ha dado un nuevo protagonismo a la Química. Para ello se ha aliado con ciencias emergentes como: La Informática: a) Para el diseño, optimización, y utilización de algoritmos que describan el espacio químico, analicen la diversidad química de una librería, dentro de todo el espacio químico, 22 dentro de ella misma y en comparación con otras librerías, y seleccionen los monómeros, los esqueletos moleculares básicos y los enlaces que los conectan. b) Para el estudio y análisis estructural "in silico" de librerías de miles o millones de compuestos. La Robotización y la miniaturización: a) Para la preparación de forma automatizada de gigantescas librerías de compuestos, que no pueden ser preparadas manualmente. b) Para la preparación de esas librerías en cantidades mM, lo que minimiza el coste de su preparación y los problemas medioambientales derivados de la Química. También hace uso de ciencias más establecidas como: a) Ciencia de materiales - Sobre todo en la utilización de soportes sólidos cuando la química se hace en fase sólida. b) Microelectrónica, para la codificación mediante radio-frecuencias de productos asociados a un determinado soporte sólido. La aparición de la Química Combinatoria ha marcado otros cambios en la Química. Es una disciplina en cuyo nacimiento y desarrollo han influido decisivamente los centros de investigación privados. Su objetivo ha sido la creación de diversidad química de la que seleccionar productos con determinadas propiedades de utilidad industrial en la Química fina (Farmacia, Agroquímica, Química de la alimentación, aditivos de todo tipo, etc.), la Ciencia de materiales, etc. Respecto a qué descubrimientos son previsibles o deseables, creo que se avanzará mucho en la composición de la naturaleza del enlace químico. Sobre todo en aspectos tales como interacción de macromoléculas biológicas entre si (proteínas, glicoproteínas, ácidos nucleicos, etc.) y con moléculas pequeñas, así como de las interacciones de moléculas no biológicas pequeñas, medianas y grandes entre si. La compresión de estas interacciones puede permitirnos conocer mejor cómo funcionan procesos biológicos (farmacología, medicina, agricultura, alimentación) y no biológicos (ciencia de materiales) clave, con el fin de modificarlos para producir un fin socialmente beneficioso. Creo que es también deseable progresar en métodos analíticos que permitan conocer las estructuras de ciertas moléculas importantes y sus interacciones dinámicas en tiempo real. Además de la química combinatoria, entre las disciplinas científicas y nuevas tecnologías que más significativamente están revolucionando el descubrimiento de nuevos fármacos hay que mencionar los avances en biología molecular y celular y el desarrollo del “high-throughput” y “ultra high-throughput screening”. En este contexto, una tecnología emergente que sin duda mejorará el proceso es la genómica que se refiere a los métodos automatizados para el estudio de la genética y las funciones de los genomas de los organismos vivos. Ahora bien, los datos que proporciona la genómica, en otras palabras, las secuencias de DNA/RNA no son suficientes para identificar un nuevo objetivo terapéutico, siendo necesario conocer la relación entre los genes y su función. A esta nueva tecnología que estudia la función de las proteínas de los genes a la que está evolucionando la genómica, es lo que se denomina proteómica. La finalidad de la proteómica es la descripción cuantitativa de la expresión de las proteínas y de sus cambios bajo la influencia de perturbaciones biológicas como la enfermedad o el tratamiento terapéutico. Ahora bien, quedan todavía bastantes problemas técnicos a resolver para que la proteómica se convierta en lo que ha supuesto la genómica estos últimos diez años, aunque científicos optimistas empiezan a hablar ya del proyecto del proteoma humano. No obstante, y a pesar de las limitaciones, las posibilidades que ofrece la proteómica de contemplar la multiplicidad de factores implicados en una enfermedad, que raramente es ocasionada por un único gen, va a permitir identificar nuevas dianas terapéuticas, que se estiman entre 1.000 y 4.000 proteínas, así como reconocer individuos predestinados por su proteoma a sufrir determinados efectos secundarios en la terapia con fármacos. Entre lo más relevante de los descubrimientos recientes hay que incluir el papel fisiológico que juega un aminoácido de la serie D (recordar, que casi todos los aminoácidos naturales pertenecen a la serie L, ver sección 1, salvo en las bacterias): la D-serina. Este compuesto se ha 23 encontrado en el cerebro de los mamíferos y actúa como ligando endógeno del receptor NMDA (Nmetil-D-aspartato) por lo que bien pudiera estar implicado en la esquizofrenia. Así, si se aumentan los niveles de D-serina mejoran los síntomas de los pacientes, incluso se ha probado con éxito la combinación D-serina con algunos ansiolíticos Sería un error grave creer que los avances en el campo del medicamento realizados a lo largo del siglo XX han resuelto la mayoría de los problemas. Algunos como la artritis, el cáncer o la gripe se resisten a ser eliminados. Otros, como la aparición de resistencias a antibióticos, las nuevas enfermedades víricas, tales como SIDA y fiebres de Lasa y de Ebola, hacen que estamos hoy frente a retos análogos a los de principios del siglo XX. Incluso un problema químico como el diseño de un verdadero análogo del enlace peptídico resistente a peptidasas, que permitiera el uso de péptidos por vía oral, sigue sin haberse resuelto de una manera satisfactoria, a pesar de los muchos esfuerzos realizados en esta dirección. 9. Química y materiales Bien que haya un capítulo de esta obra (el 25. Los nuevos materiales, Miguel A Alario) no es posible hablar del mundo de la química sin hablar de materiales. Entre otras razones, porque la vertiente "ciencia de los materiales" hace contrapeso a la vertiente "biológica” de la química orgánica. La balanza se inclina tan fuertemente hacía la biología que hay quien cree que si la química no es biológica, no es nada. Es esta una posición academicista que olvida, cuando no desprecia, todo el sector industrial basado en los materiales: nuevos materiales orgánicos e inorgánicos (polímeros, semiconductores, cristales líquidos, coloides,...) con aplicaciones tecnológicas. Entre los materiales inorgánicos, no hay que olvidar a uno de los descubrimientos probablemente más importantes en la Química en los últimos decenios como ha sido el de los superconductores de alta temperatura crítica. Nadie cuestiona que procediera del campo de la Física, pero su relevancia en la química inorgánica estructural y química del estado sólido ha sido muy importante y previsiblemente seguirá siéndolo en los próximos años, no sólo en estas disciplinas sino también en otras afines. Entre los materiales orgánicos, los polímeros ocupan la primera plaza: pinturas, trajes, chaquetas antibala, prótesis de cadera, dientes artificiales,... están tan presentes en nuestra vida, son tan familiares, que no somos conscientes que vivimos en y gracias a un mundo de polímeros sintéticos. Sufren también, como les pasa a muchos campos de la química, de su propio éxito. Son tan cercanos a la perfección que dan la sensación de ciencia agotada. Nada más falso. Polímeros conductores, ferroeléctricos sin centro quiral para su uso en fotónica, espejos inteligentes, membranas que sean tan específicas como las biológicas, sangre sintética, son algunos de los desafíos que quedan por resolver a los científicos que trabajan en este campo. Ya han conseguido fibras con propiedades mecánicas frente a la ruptura que se empiezan a acercar a la energía de ruptura del enlace carbono-carbono, así polietileno de ultra-alto peso molecular (del orden de millones) tratado convenientemente resiste a tensiones 20 veces superiores al acero. Los cristales líquidos o más propiamente compuestos mesógenos (ya que presentan fases mesomórficas) son un conjunto de compuestos cada vez más variado que tienen en común un comportamiento intermedio entre el sólido cristalino y el líquido: son sólidos en una o dos direcciones y líquidos en las otras. El campo es a la vez fascinante y lleno de aplicaciones de todos bien conocidas (pantallas, por ejemplo) y otras menos conocidas, como el kevlar. El gran descubrimiento ¨estrella¨ ha sido el de los fulerenos, con una gran influencia en química orgánica, inorgánica y en la ciencia de los nuevos materiales, que presentaremos en la próxima sección. Materiales mesoporosos. Desde el descubrimiento de la sílices mesoporosas, MCM-41 y FSM-16, ha aumentado el interés por la preparación de materiales mesoporosos, para su uso como catalizadores y tamices moleculares. Los óxidos mesoporosos de metales de transición pueden tener 24 aplicaciones como materiales funcionales con propiedades características de sus ordenadas cavidades. Nanotecnología. Se trata de un campo interdisciplinar que trata de la transferencia de objetos macroscópicos (por ejemplo, máquinas) a agregados microscópicos. La construcción pasa a paso presenta muchas dificultades, por lo cual las esperanzas están puestas en la auto-organización, basada en la simetría de los componentes y en factores termodinámicos (entropía, entalpía). Es importante que los enlaces no-covalentes se formen y rompan reversiblemente de manera a permitir la corrección de errores durante el proceso de auto-replicación. Destaca en este campo la contribución de Makoto Fujita (Universidad de Nagoya) que usa la ortogonalidad de los enlaces nitrógeno-paladio-nitrógeno para construir cajas supramoleculares de grandes dimensiones (ver sección 10). Podemos incluir aquí el tema de los dendrímeros aunque también tendrían cabida en la sección 10 porque, si bien los dendrímeros son compuestos moleculares, aparentados a los polímeros (han sido llamados "polímeros coliflor"), tienen propiedades supramoleculares muy interesantes. Descubiertos por Fritz Vogtle y Edwin Weber en 1978-79 y desarrolladas por Donald A. Tomalia y Georges R. Newkome, estas fascinantes moléculas, crecen a partir de un núcleo central, en capas sucesivas, llamadas generaciones, hasta adquirir una forme esférica. El físico Pierre-Gilles de Gennes (PNF 1991) ha elaborado un modelo matemático sencillo que predice que más allá de la generación número 20, la congestión en la superficie será tal que el dendrímero no podrá crecer más. dendrímero 25 10. Química supramolecular Además del campo de los productos naturales, la otra gran fuente de inspiración de los químicos es la simetría y el recuerdo de los juguetes sencillos de su infancia: es frecuente que los químicos supramoleculares hablen de "Mecano" y de "Lego" a propósito de sus moléculas. Como a los autores de ciencia-ficción les es difícil imaginar estructuras no relacionadas con su universo cultural. Será curioso ver el efecto que la educación, basada en los ordenadores, de los adolescentes actuales tendrá en las moléculas que imaginen. La química supramolecular guarda relación con un avance "conceptual". Esto es, se ha cambiado de pensar que la razón de la "función" de las substancias químicas era "su identidad" a el convencimiento de que la razón es "su forma". En otras palabras, hemos pasado de relacionar [ser → función] a relacionar [como es → función] en un orden no solo molecular (ya establecido anteriormente por la química orgánica) sino a nivel supramolecular. La caracterización estructural de estructuras complejas no conectadas de una manera trivial por enlaces químicos ordinarios, es lo de lo más importante que ha sucedido en el último cuarto de siglo. La fascinación que la molécula formada por sesenta átomos de carbono ejerce sobre los químicos es, al menos en parte, debido a su parecido con un balón de fútbol.10 Los químicos supramoleculares han construido, conjuntos de moléculas, que remedan, a nivel molecular, pesas de halterofilia (rotaxanos), lanzaderas (shuttles), anillos enlazados (catenanos) incluido el símbolo olímpico (olimpiano o [5]catenano), etc. ____________ 10 Este sólido arquimedeano está formado por anillos pentagonales (12) y hexagonales (20) y por ello dos autores españoles, José Castells y Félix Serratosa, propusieron que se le llamase futboleno o soccereno. El nombre que ha triunfado es el de fulereno (fullerene), contracción de la propuesta inicial, buckminsterfullerene, en honor del arquitecto Buckminster-Fuller, célebre por sus domos geodésicos. Sus descubridores, Rober F. Curl, Harold W. Kroto and Richard E. Smalley, recibieron por ello el PNQ 1996. ____________ Por ejemplo, un rotaxano, puede ser representado simbólicamente así: Se trata pues de un anillo que se desplaza libremente alrededor de unas pesas. Convenientemente modificado puede convertirse en un "tren" que se mueve entre dos o varias estaciones, sean las vías rectas o en forma circular: 26 1 1 2 2 Todo este fascinante campo de las estructuras supramoleculares, al que están asociados entre muchos otros los nombres de Jean-Marie Lehn (PNQ 1987), J. Fraser Stoddart, Julius Rebek y Georges M. Whitesides (alguno de ellos, futuro Premio Nobel), tiene muchas posibilidades de contribuir al desarrollo de ordenadores moleculares y a la obtención de receptores abióticos que simulen las de los receptores naturales. Jean-Marie Lehn y Georges M. Whitesides Siendo probablemente el campo de la química con más empuje a finales del siglo XX y uno de los más prometedores y estimulantes para en nuevo milenio, es difícil resumir su tremenda actividad. Por ello sólo hemos recogido unos pocos ejemplos. 1) Los fulerenos y los nanotubos de carbono. En cuanto a los descubrimientos más previsibles creo que estarán relacionados con "la obtención, caracterización, estudio y utilización de objetos moleculares nanoscópicos" Creo que las Nanociencias serán una de las áreas de trabajo más fértiles en los próximos años; entendiendo a estas en su sentido más amplio englobando a todo aquello que tiene interés en el campo de los biología, electrónica molecular, sensores, biomedicina, etc. Para ilustrar con un bello ejemplo, porque la belleza cuenta mucho en este campo, reproducimos a continuación un complejo endoédrico (es decir, que el huésped está dentro de la cavidad) de nitruro de escandio en C80. Este producto, que recuerda al símbolo de Mercedes-Benz dentro de un balón, ha sido obtenido por Harry C. Dorn en Virginia. 27 Sc3N@C80 2) El enlace (que algunos llaman puente) de hidrógeno (véase también la sección 6, a propósito de la estructura del agua) es la más fuerte de las interacciones débiles en las que se basa la química supramolecular. Hoy se ha alcanzado un dominio de este enlace próximo al del enlace convencional de la química, el enlace covalente. Fue Pauling quien comprendió su papel fundamental en la estructura de los cristales11, en estos momentos es un método habitual de construir notables edificios supramoleculares en competencia sólo con los compuestos de coordinación (sección 5). ____________ 11 Un cristal es el ejemplo perfecto de estructura supramolecular y, en muchos de ellos, son los enlaces de hidrógeno los que determinan como se empaquetan las moléculas. ____________ Una de las áreas de la química en el contexto económico/social actualmente dominante es el conocimiento y control de las fuerzas débiles que controlan el ensamblaje molecular. Ello permitirá dominar áreas actualmente baldías como la fabricación de materiales con las propiedades deseadas por la industria. Entre los descubrimientos más deseables creo que serán "aquellos que permitan entender, predecir y controlar totalmente las interacciones débiles entre moléculas". El avance en esta dirección beneficiará a muchas áreas de trabajo (vacunas, nuevos materiales, etc.) que son muy necesarias para toda la sociedad. 3) La ingeniería de cristales. Según Gautam R. Desiraju, uno de sus más conocidos representantes, la ingeniería de cristales se puede definir como la comprensión de las interacciones intermoleculares que gobiernan el empaquetamiento cristalino y la utilización de tal comprensión para el diseño de nuevos sólidos con propiedades físicas y químicas deseables. Siguiendo el pionero trabajo de Pauling y de Kitaigorodskii, los químicos llevan decenas de años intentando predecir la estructura de un cristal a partir de su composición. Empieza a haber progresos, pero es un problema de gran complejidad, tanto a nivel de computación como de desarrollo de potenciales de interacción (ver sección 7). 4) Cuando Leo A. Paquette sintetizó en 1980 el dodecaedrano (C20H20) se dijo de ese trabajó que era el Everest de la síntesis. En 1999, un dodecaedro formado por cincuenta moléculas de formula "supramolecular" C2900H2300N60P120S60O200F180Pt60 ha sido caracterizado por Peter J. Stang. El producto tiene 7 nm de diámetro y puede verse por microscopía electrónica de transmisión. 28 dodecaedro y dodecaedrano 5) Los experimentos de Whitesides. Se trata del auto-ensamblaje de objetos milimétricos (mesoescala) recortados en láminas de polidimetilsiloxano (PDMS), por ejemplo, láminas hexagonales, cuyas caras laterales (los bordes) son unos hidrofóbicos (el PDMS natural) y otros hidrofílicos (PDMS modificado). Colocados en una interfaz agua/perfluorodecalina y agitados regularmente, forman figuras geométricas debido a las fuerzas capilares. 2 + Isómero cis Isómero trans Estos experimentos de auto-asociación son relevantes tanto en ciencia de materiales como en mecánica estadística. Estructuras más complejas, que respetan una jerarquía de interacciones, también han sido preparados en Harvard, abriendo así la puerta a modelos de interacción entre receptores y ligandos. 29 6.- El trinquete ("ratchet") molecular. Con la intención de construir moléculas que hagan trabajos mecánicos específicos a voluntad del químico, se han diseñado y obtenido diversos ingenios moleculares, "molecular devices, MD". Uno de los problemas más difíciles era obtener una rueda que girase siempre en el mismo sentido, el análogo de un trinquete: Un trinquete macroscópico: a: resorte; b: garfio; c: rueda con dientes asimétricos. Los primeros resultados fueron negativos; en efecto un trinquete molecular viola el segundo principio de la termodinámica (ver R. P. Feynman en sus célebres Lectures on Physics, Vol. 1) ya que, a pesar de las apariencias engañosas, cuando el garfio se levanta, la rueda gira en los dos sentidos con igual probabilidad. El ingenio de los químicos (Ben L. Feringa en Groningen y T. Ross Kelly en Boston) ha resuelto este problema usando la quiralidad y un proceso fotoquímico (BLF) o una secuencia de reacciones en el otro (TRK). En la sección 12 comentaremos el efecto de una revolución en los ordenadores sobre la química. Recíprocamente, la electrónica molecular, puede revolucionar el mundo de la informática. 11. Catálisis Este es uno de los campos de la química que merece la mayor atención, la dificultad es que cubre toda la química, por lo que se encuentra repartido en otras secciones de este documento: en síntesis orgánica (sección 4), enzimas (sección 4), estados de transición (sección 6). En síntesis de catalizadores destacar la enorme importancia de los métodos combinatorios. Entre sus aplicaciones, sobre catálisis heterogénea hay mencionar la importancia de las zeolitas, la de los materiales mesoporosos, etc. Y en catálisis homogénea, aparte de los procesos que se podrían considerar convencionales (hidroformilación, metátesis...), el desarrollo más relevante, para el que además se prevé una enorme importancia en los próximos 10-15 años, es el de la catálisis enantioselectiva, cuyo desarrollo industrial mueve muchos miles de millones de pesetas al año (trabajos de Noyori y Sharpless, candidatos al PNQ desde hace años y de Kagan recientemente fallecido). Ya que esta es la era de los plásticos, hay que destacar la catálisis de polimerización en todas sus variantes. Hay que seguir trabajando en catalizadores que permitan procesos industriales limpios así como nuevas fuentes de energía. Algunos aspectos merecen un tratamiento más específico, tales como las zeolitas, el tratamiento de la luz solar o la química verde. Las zeolitas, son una familia muy amplia de aluminosilicatos cristalinos mesoporosos, la mayoría de ellos sintéticos. Su importancia industrial, en petroquímica, es considerable. Dependiendo de la estructura de la zeolita, varía la geometría de los microporos cuyas dimensiones están en el rango de los tamaños moleculares. En estos espacios interiores tienen lugar reacciones químicas y fotoquímicas de una forma controlada y se pueden aislar especies muy reactivas de vida media muy corta fuera de la cavidad. En lo que respecta al futuro el enorme reto de la química es la fotólisis del agua con fotones del espectro visible. La producción de hidrógeno por esta vía sería la fuente inagotable de energía limpia para el siglo que nos llega. Los semiconductores de que disponemos hoy día no son eficientes para este proceso. Otro reto muy importante, y que ya empieza a perfilarse, es el de los interruptores atómicos de luz. Un campo donde nuevas moléculas pueden lograr "domesticar" la 30 luz, tal como lo han hecho los semiconductores con la electricidad hace ya algunas décadas. Cabe esperar también sorpresas de la mano de la química cuántica donde estos fenómenos de la escala atómica no pueden describirse por la leyes que manejamos en la escala del centímetro o metro. En este capítulo podemos enmarcar la química verde, es decir los procedimientos químicos industriales respetuosos con el medio ambiente incluidos aquellos métodos de su reparación. Como ejemplos podemos citar la transformación de celulosa (el compuesto orgánico más abundante en la Tierra) en ácido levulínico, importante intermedio de síntesis; los complejos macrocíclicos de hierro(III) que aumentan la capacidad oxidante del agua oxigenada (peróxido de hidrógeno) en su uso como blanqueante en la industria de la madera y del papel; las spinosinas, productos naturales aislados de la bacteria Sacaropolispora spinosa, insecticidas muy poco tóxicos para los mamíferos; el uso de enzimas y disolventes acuosos en la fabricación de medicamentos, etc. Métodos químicos no convencionales, tales como los que emplean microondas en ausencia de disolvente, pueden convertirse en procedimientos industriales limpios ya que no general efluentes contaminados. 12. Química y ordenadores Un salto cualitativo en la velocidad de procesado, un factor mil, por ejemplo, tendría consecuencias revolucionarias en química. Esto se podrá conseguir con ordenadores cuánticos (problema físico) o con ordenadores moleculares (problema químico) aunque las redes mundiales, el procesamiento en paralelo y la eficacia de los algoritmos, también contribuirá. Cuando se consiga, la química teórica (uno de los grandes consumidores, con la meteorología, de potencia de cálculo) dará un salto de la explicación a la predicción. Número de isómeros en alcanos (CnH2n+2) CH4: 1 C2H6: 1 C3H8: 1 C4H10: 2 C5H12: 3 C6H14: 5 C167H336: > 1080 31 El número de moléculas posibles es casi infinito. Un pequeño cálculo muestra que el hidrocarburo C167H336 tiene más isómeros que partículas hay en el Universo. Y no es un compuesto desmesurado, por ejemplo los hidrocarburos C384H770 (lineal) y C288H576 (anillo) han sido sintetizados. Necesitamos pues, urgentemente, un método de diseño, un método de predicción que nos permita imaginar estructuras y predecir sus propiedades. Ese método sólo puede ser la química teórica. Pero para abordar problemas reales es necesario disponer de ordenadores basados en conceptos nuevos, pues los que conocemos tienen un limite predecible demasiado pequeño12. Hoy es inconcebible simular, a nivel químico-teórico, una célula entera, ni siquiera una proteína y sus funciones. Ese es el objetivo para futuras generaciones de químicos. De la ecuación de Schrödinger para la molécula de dihidrógeno hasta un ser vivo, ese el camino a recorrer. _____________ 12 La "ley" de Moore dice que la capacidad de un ordenador de talla determinada dobla cada 1,5 años, el software aún crece más deprisa. Pero con la tecnología actual este crecimiento exponencial tenderá pronto a un límite superior. _____________ Los ordenadores actuales frente a los ordenadores moleculares y los ordenadores cuánticos. Un factor de mil en velocidad de procesamiento cambiaría la química. Lo más importante ya descubierto: El desarrollo de métodos de cálculo de la estructura y propiedades de sustancias químicas, con capacidad de predicción cada vez más 'exacta'. Otro aspecto muy importante que sin duda evolucionará es el de las bases de datos estructurales y su análisis. Hasta hace unos años solo existían unas pocas y su estudio para encontrar nuevas interacciones ha sido bastante limitado pero con el aumento de datos sobre todo en el campo de estructura de proteínas su estudio puede proporcionar muchas ideas sobre el plegamiento de proteínas. Es incluso probable que el problema de los priones necesite para ser entendido estudios de dinámica conformacional de proteínas. Recordemos que es la forma tridimensional de una enzima lo que le confiere sus propiedades catalíticas sirviendo como un molde de forma cuidadosamente definida, bien que ligeramente deformable, para que otras moléculas encajen en él y se encuentren unas con otras; sino, dependerían de colisiones al azar, razón por la cual las enzimas aumentan dramáticamente la velocidad de las reacciones químicas (ver sección 4). La elegancia de este sistema es una de las claves que hacen posible la vida, pero plantea un problema. Las enzimas son, a menudo, capaces de plegarse en más de una forma y, en general, sólo una es deseable. Gran parte del trabajo de la selección natural durante millones de años, ha sido encontrar las proteínas decisivas cuya preferencia por su forma estándar es mucho más fuerte que su tendencia a plegarse en cualquier otra forma. Moléculas con dos plegamientos alternativos pueden constituir una trágica amenaza. La "enfermedad de las vacas locas", el "scrapie" de las ovejas y sus correspondientes contrapartidas, el Kuru y la enfermedad de Creutzfeldt-Jacob, son causadas por proteínas, llamadas priones, con dos formas alternativas. Normalmente están plegadas en una de las formas, y en esa conformación hacen un trabajo útil. Pero ocasionalmente adoptan la otra conformación. Entonces ocurre una cosa terrible. La presencia de una proteína con la forma alternativa induce a las otras a adoptar esa conformación. Una epidemia de proteínas deformadas se extiende por el sujeto como una cascada de fichas de dominó. Una sola proteína "torcida" puede infectar a otro cuerpo y desencadenar otra cascada de dominó. La consecuencia es la muerte debida a agujeros esponjosos en el cerebro, porque la enzima en su forma alternativa no puede hacer su trabajo. Este problema se podría abordar desde una perspectiva computacional, dentro de lo que se denomina dinámica molecular. Al fin de cuentas, se trata de un sistema conceptualmente sencillo, computable, que se compone de: 32 1) La proteína en su conformación estándar, PE. 2) La proteína en su conformación "priónica", PP. 3) La barrera que separa estas dos conformaciones, DB. 4) El mecanismo por el que PP induce la transformación PE → PP. Probablemente, la conformación PP es más estable que la PE pero la barrera, en ausencia de catalizador, debe ser elevada. Por otro lado, el complejo PEPP se transforma fácilmente en PPPP o bien PP produce un transmisor TP que cataliza la transformación PE → PP. Un tratamiento riguroso de este problema requiere el conocimiento de la secuencia (estructura primaria) de la proteína PE, alguna información sobre su estructura tridimensional y una potencia de cálculo de la que no disponemos aún. Otro aspecto muy importante que evolucionará rápidamente es el de las bases de datos estructurales y su análisis. Hasta hace unos años solo existían unas pocas y su estudio para encontrar nuevas interacciones era bastante limitado pero con el aumento de datos sobre todo en el campo de estructura de proteínas su estudio puede proporcionar muchas ideas sobre el plegamiento de proteínas (ver discusión anterior). Dado su acceso por la red, su uso es cada ida más generalizado y no puede más que aumentar en contenido total, facilidad de búsqueda y riqueza de información. Por ejemplo, la base de datos del Chemical Abstract Service (CAS) contiene en la actualidad datos de 22 millones de compuestos, mientras otras bases están centradas más en las transformaciones directas (sintéticas) o indirectas (retrosintéticas) que en los compuestos. Hay también bases de datos cristalográficas (sección 7) y bases de datos de proteínas (de Brookhaven). En estas últimas se encuentra la información estructural, obtenida por rayos X y/o RMN, de varios miles de proteínas, de gran utilidad para el diseño racional de nuevos fármacos, en particular inhibidores enzimáticos (sección 8). 13. Conclusiones La división de la química en varias ramas tiene sobre todo valor pedagógico y es de esperar que se vaya atenuando. El problema es más complejo de lo que a primera vista parece. Piénsese que lo mismo se podría decir de la química y de la física o de la química y la biología y nadie imagina que sus fronteras vayan a desaparecer en un futuro próximo. La barrera entre orgánica e inorgánica debería ser la más fácil a superar. Pero el esfuerzo para adquirir los conocimientos necesarios es enorme: ¡nada menos que tratar todo el sistema periódico al nivel de refinamiento de la química orgánica! El caso de las fronteras con la química física es más complejo. Los químicos están sentados en la cresta de una montaña entre dos valles profundos: a su izquierda, los nuevos materiales, a su derecha, la biología y la medicina. Una posibilidad es que la química tal como la conocemos desaparezca pero convertirse en dos disciplinas. Para seguir con la metáfora, es como si todos bajásemos a los valles, donde nos encontraríamos más cómodos. El que esto escribe ha luchado siempre contra esta tendencia porque cree que sería un error. Alguien debe quedar arriba para transferir conocimientos de uno a otro valle. Además sigue habiendo problemas generales de la química: gran parte de la química física (que no puede reducirse a biofísica), todos los problemas de selectividad (la preparación de moléculas con una disposición/geometría predeterminada y sus consecuencias con respecto a sus propiedades macroscópicas). La imaginación de los químicos unida a la naturaleza combinatoria de su disciplina van a conducir a una explosión de moléculas fascinantes. Piénsese en lo que ya han conseguido juntando fulerenos, porfirinas, agregados de boro y TTF (tetratiofulvaleno). Cada vez que surge una molécula original, sus combinaciones son exploradas, buscando las más bellas, las más dramáticas. En la elección de como y de que manera combinar los fragmentos se distinguen los grandes químicos de los otros. Otro de los campos en los que se avanzará es en el llamado "problema inverso". Hasta ahora la química predice propiedades dada una estructura molecular. El problema inverso trata de 33 hacer lo contrario, dada una propiedad encontrar la estructura química que lo posea en su forma optima. Esto es diseño molecular de verdad. En conclusión, podemos decir que hay dos clases de químicos13: los pesimistas-lúcidos y los optimistas-incorregibles. Los primeros creen que el progreso de la química no puede venir de sus fundamentos sino únicamente de sus objetivos. Piensan que todo lo que los químicos usan como soporte conceptual fue descubierto hace tiempo. No sólo la mecánica cuántica, sino también los modelos empíricos (Hammett-Taft-Hansch), la espectrometría de masas (Thompson), la teoría del complejo activado (Eyring), la mesomería, la electronegatividad,... son todos anteriores a 1940. _________ 13 Una tercera clase estaría formada por aquellos profesionales que no les interesan los problemas meta-químicos. _________ Los segundos, fuertes del saber que toda predicción es probablemente errónea, piensan que hay indicios de grandes cambios a venir: caos y redes neuronales en modelado empírico, espectroscopías de femtosegundos (1 fs = 10–15 s) o incluso de attosegundos (1 as = 10–18 s), la supraconducción a alta temperatura, ... Si difieren en los fundamentos, todos coinciden en que una invasión pacífica de las ciencias biológicas es una de las grandes avenidas por explorar que se ofrecen a los químicos. Como John Maddox14 ha hecho notar en su libro (página 190) " There is yet no single protein molecule of any complexity whose mechanical action is clear to ordinary chemists". Mi impresión es que este será uno de los frentes donde la química avanzará en el siglo XXI. No sólo en este área tan específica de la bioquímica, sino en general en el campo de los llamados "ingenios moleculares", es decir el diseño de moléculas que hagan trabajos mecánicos específicos a voluntad del químico. Como se ve, biología y materiales no deben aislarse, so precio de empobrecer la química y, por ende, la ciencia. ____________ 14 Es obvio que la química llega difícilmente al público a través de las revistas de divulgación. Una gran responsabilidad la tiene John Maddox, el antiguo editor de Nature, posiblemente la persona que mas daño ha hecho a los químicos al negarles acceso a su revista e ignorándolos en sus libros y artículos en periódicos, por ello merecería el premio Stahl (el "inventor" del flogisto). _____________ 14. Glosario Átomo de carbono asimétrico. Este término introducido por van't Hoff describe un átomo de carbono con cuatro sustituyentes diferentes, Cabde. Carbenos. Compuestos de carbono de valencia 2 con dos electrones libres que pueden estar apareados (singletes) o no (tripletes). Son especies generalmente muy reactivas con gran relevancia en química de coordinación (carbenos de Fischer, de Schrock, etc.). Configuración absoluta. La disposición espacial de los átomos en una molécula quiral que la distingue de su imagen especular. D, L. Descriptores configuracionales para carbohidratos o α-aminoácidos. 34 Enantioselectividad. Una reacción que produce los dos enantiómeros de un producto quiral en desigual proporción. Estereoisómero. Isómeros de idéntica constitución pero que difieren en la ordenación de sus átomos en el espacio. Estéreoselectividad. La formación preferente de un estereoisómero sobre el otro durante una reacción. Fuerzas de van der Waals. Débiles fuerzas atractivas entre moléculas debidas a efectos electrostáticos, como dipolos o dipolos inducidos. Mesoscópico. Esta palabra tiene dos acepciones relacionadas. Según el primer significado, usual en física, un objeto mesoscópico es aquel que tiene dimensiones comparables con la longitud característica del fenómeno que se está examinando (por ejemplo, en biología celular, de 1 a 50 mm). Un segundo significado de "meso" (es decir, medio) es el que usan los fabricantes de dispositivos: un tamaño cualitativamente intermedio entre pequeño (molecular) y grande (se puede manipular fácilmente por métodos convencionales), por ejemplo, entre 10 nm y 1 mm. Quiral. No se puede superponer con su imagen especular, se aplica tanto a moléculas como a objetos macroscópicos (cristales). Síntesis asimétrica. La síntesis de novo de una sustancia quiral a partir de precursores aquirales de tal manera que un enantiómero predomine sobre el otro. Es preferible usar síntesis enantioselectiva. 15. Lecturas recomendadas P. W. Atkins, "Forever Physical Chemistry", en Chemistry 2000, Chemistry in Britain, 1999, p. 9. P. W. Atkins, “Molecules”, Scientific American Library, New York, 1987. J. A. Berson, "Chemical Creativity. Ideas from the work of Woodward, Hückel, Meerwein and others", Wiley-VCH, Weinheim, 1999. P. Davies, Editor, "The New Physics", Cambridge University Press, Cambridge, 1989. Ver el capítulo 11 "Physics of far-from-equilibrium systems and self-organization" por G. Nicolis, donde se discute la reacción de Belousov-Zhabotinski. J. Elguero, "El paper de la química en el segle XXI", en Reptes de la ciència a les portes del segle XXI, Barcelona, 1995, p. 19-24. J. Emsley, “The Consumer’s Good Chemical Guide”, W. H. Freeman, Oxford, 1994. J. Horgan, “The End of Science”, Addison Wesley, New York, 1996. J. Maddox, "What remains to be discovered ?", The Free Press, New York, 1998 (hay versión española: "Lo que queda por descubrir", Ed. Debate, 1999). S. F. Mason, "Molecular Optical Actvity and the Chiral Discrimination", Cambridge University Press, Cambridge, 1982. J. M. Ugalde, I. Alkorta, J. Elguero, "Water Clusters: Towards an Understanding based on First-principles of Their Static and Dynamic Properties", Angew. Chem. Int. Ed. Engl. en prensa (2000). Agradecimientos Muchos químicos españoles me han ayudado a escribir este artículo. Para no hacerles responsables de lo aquí escrito, no los citaré nominalmente, pero ellos reconocerán lo que es suyo y por su ayuda desinteresada, reciban aquí mi más sincero agradecimiento. 35