Introducción al diseño de Fármacos J.C. Escalona, R. Carrasco, J. A. Padrón Folleto para la docencia de la asignatura de Farmacia, Universidad de Oriente. INDICE I. Introducción _________________________________________________ 1 II Capítulo I. Diseño de Fármacos. Métodos Tradicionales. _____________ 4 II.1 Métodos Variacionales _______________________________________ II.1.1 Búsqueda del compuesto líder o cabeza de serie ____________________ 5 II.1.2 El desarrollo de un compuesto líder: La variación molecular. __________ 6 II.1.3 Método Variacional. Tipo de aplicación. __________________________ 8 4 II.1.3.1 Sustitución bioisostéricas ______________________________________ 8 II.1.3.2 Modulación Molecular ________________________________________ 9 III. Capitulo II. Diseño de fármacos asistido por computadoras. ___________ 12 III.1 Técnicas SAR o modulación molecular en el desarrollo de nuevos Fármacos. __________________________________________________ 12 III.1.1 Búsqueda del farmacóforo. _____________________________________13 III.1.1.1 Búsqueda del farmacóforo cuando no se conoce la estructura del receptor. ____________________________________________________13 III.1.1.2 Búsqueda del farmacóforo cuando se conoce la estructura del receptor. ___14 III.1.2 Consideraciones finales. ________________________________________ 16 III.2 Técnicas QSAR en el desarrollo de nuevos fármacos. _________________ 17 III.2.1 Elección de la serie. ___________________________________________ 19 III.2.2 Tipos de estudios QSAR. _______________________________________ 20 III.2.2.1 QSAR Tradicional. ____________________________________________ 20 III.2.2.2 QSAR por redes de neuronas. ____________________________________ III.2.2.3 QSAR tridimensional (3D-QSAR). ________________________________ III.2.3 Validación del modelo. __________________________________________ III.2.4 Descriptores moleculares o índices. ________________________________ III.2.4.1 Indices basados en propiedades químico-físicas. ______________________ III.2.4.2 Indices mecánico-cuánticos. ______________________________________ III.2.4.3 Indices topológicos y topográficos. _________________________________ III.2.5 Criterios de selección de parámetros. _______________________________ III.2.6 Situción actual y tendencias futuras. ________________________________ I. INTRODUCCION La historia del medicamento se remonta a los orígenes de la sociedad humana. Desde los primeros tiempos el hombre a acudido a la naturaleza para obtener sustancias que o bien le ayudaran a paliar su dolor, los síntomas de sus enfermedades... o bien le facilitaran la obtención del alimento (veneno para la caza), sus relaciones sociales y religiosas (estimulantes y alucinógenos) etc. Esta circunstancia ha permitido disponer de una amplia información, que sometida a la observación atenta y estudio crítico, ha dado lugar al planteamiento de ideas que, debidamente desarrolladas, han llevado a la obtención de nuevos medicamentos, de sustancias líderes. Esta historia previa es la causa de que en la actualidad el modelo de aproximadamente la mitad de los productos de que se dispone sea de origen natural. Modelos que, obtenidos a partir de un organismo vivo, han sufrido diferentes modificaciones en el laboratorio, encaminadas a obtener moléculas más potentes y menos tóxicas que las originales, las cuales en realidad no habían sido diseñadas para un tratamiento específico. El descubrimiento de un nuevo medicamento y desarrollo posterior del mismo, son dos fases, que condicionan lograr un nuevo producto que sea útil en la terapéutica. El descubrimiento debe ser diferenciado del desarrollo. Se ha acordado de manera general que el descubrimiento comprende toda la fase para que podamos asegurar que el compuesto tiene un deseable perfil de actividad; comprende desde la síntesis, el aislamiento de la fuente natural, o la obtención biotecnológica y toda la fase preclínica, incluida la toxicología; de manera tal que nos confirmen que el compuesto es aceptable en cuanto eficacia y seguridad para su ensayo en seres humanos. Comprende en un sentido más amplio, un gran conjunto de actos que culminan en la utilización terapéutica de un nuevo medicamento (Fig #1). Esta fase de descubrimiento, o sea desde la obtención hasta la primera aplicación en humanos, se estima que dure aproximadamente 42,6 meses (3,55 años) como promedio, en aquellos países y transnacionales farmacéuticas con una amplia infraestructura investigativa. En países con un nivel menor de desarrollo esta fase alcanza aproximadamente unos 5-6 años. La fase de desarrollo comprende la de los estudios clínicos y la del registro farmacéutico, y se estima que duren entre 68.6 meses y 30.3 meses respectivamente. Todo este largo proceso, desde su obtención hasta su registro comprende un total de 11.8 años de investigación, con un costo promedio de 231 millones de dólares por cada nuevo medicamento que salga al mercado. Obtención y caracterización química del producto. Ensayos Preclínicos Definición del lugar y del mecanismo de acción Desarrollo de la formulación galénica Estudio de toxicidad aguda Estudio de tolerancia local Estudios de toxicidad subaguda en dos especies Estudios suplementarios de toxicidad aguda (otras vías y especies) Teratogenicidad (dos especies) Informe final de los efectos tóxicos Desarrollo de métodos para la determinación de la sustancia en el material biológico. Farmacocinética y metabolización (Modelos animales) Preparación Farmacéutica adecuada Estudios de la tolerancia local A veces, estudios toxicológicos en teraceras especies. Farmacología general de la sustancia Técnicas estandarizadas Técnicas comparadas Farmacodinámica Efectos secundarios Estudios microbiológicos Espectro de actividad Lo más alarmante es que sólo una de cada 10 000 moléculas ensayadas pasa a la fase de desarrollo, una de cada 100 000 supera los ensayos clínicos y logra registrarse y sólo 3 de cada 10 nuevos medicamentos registrados recupera su inversión inicial. Esto genera una triste realidad, por cada millón de moléculas que se inician en esta larga cadena para la obtención de un nuevo medicamento, sólo tres recuperan la inversión inicial. Por tal motivo el diseño racional de fármacos, constituye una herramienta casi indispensable en el desarrollo actual de nuevos medicamentos, contribuyendo a un aumento de las posibilidades de éxitos y a un decrecimiento de los costos. El desarrollo de medicamentos cada vez más seguros, adecuados y efectivos en el tratamiento de enfermedades, es una tarea que requiere del esfuerzo coordinado e inteligente de un elevado números de profesionales de distinta formación y dedicación, en la que la capacidad de deducción, la institución y en muchos casos, la suerte, han jugado un papel fundamental. Reconociendo la importante contribución del azar en el resultado positivo de este esfuerzo, es preciso matizar que su base está sólidamente anclada en un diseño inteligente y racional ya que sólo acudiendo al azar, nunca se obtendrán medicamentos eficaces y seguros. Si se conoce la base biológica de una enfermedad o de un desarreglo metabólico, es posible diseñar un medicamento, utilizando un mecanismo de aproximación al proceso patológico. Cuando se conoce este proceso en su base molecular y se pueden definir las moléculas implicadas en el mismo, es posible diseñar medicamentos que interactúen con la molécula responsable, de tal forma que la modifique y se modifique así mismo la patología. Lo primero, sería definir la base molecular del proceso patológico, para lo cual es preciso conocer los diversos pasos implicados en un proceso fisiológico, que conlleva la realización de una función normal y el conocimiento de qué paso, exactamente, es el que está alterado, en la situación patológica. Para conocer a profundidad el proceso fisiológico, es necesario conocer la estructura tridimensional de la(s) molécula(s) objetivo, esto es pocas veces posible, sobre todo por la dificultad de obtener los receptores en estados cristalinos. Los métodos más utilizados en este sentido son la Resonancia Magnética Nuclear, la cristalografia de rayos X y los cálculos teóricos de las fuerzas que mantienen la configuración de un sistema, ya sea por mecánica molecular o mecánica cuántica. II. CAPÍTULO I: DISEÑO DE FARMACOS. METODOS TRADICIONALES. II.1 METODOS VARIACIONALES. En este capítulo se considerará de forma breve, con algunos ejemplos, la metodología de este diseño, las circunstancias y cadenas de hechos que llevan al descubrimiento de nuevos compuestos considerados como líderes o cabezas de serie, y su posterior desarrollo, la aplicación en definitiva, de las técnicas que de forma general se conocen como “Variaciones estructurales”. II.1.1 Búsqueda del compuesto líder o cabeza de serie. Aunque en la búsqueda de una cabeza de serie se pueden aplicar varios métodos los más empleados son: • El empleo de productos activos presentes en drogas utilizadas en la medicina tradicional. • Estudio de nuevos compuestos de la síntesis química o de la biotecnología. Ambos métodos requieren de la existencia previa de una amplia batería de ensayos biológicos cuidadosamente diseñados, que permitan determinar con rapidez y de manera inequívoca la actividad biológica de los nuevos compuestos. En el caso de estudios de compuestos empleados en la medicina tradicional, es más fácil, en principio, el diseño de la prueba biológica, ya que se cuenta con información previa de la actividad prevista; se trata de comprobar simplemente de manera científica el empleo popular. Sin embargo, cuando se desconoce la posible actividad, la batería de ensayos ha de ser lo suficientemente amplia, en el intento de no perder ninguna información interesante. Lamentablemente los costos asociados a este tipo de estudios hacen que estos se vean limitados en número y en el espectro de acciones biológicas. Otras vías de obtener un compuesto líder o cabeza de serie son: • Aislamiento de los productos responsables de una acción biológica determinada y su posterior identificación y caracterización. Esto se cumple fundamentalmente en productos naturales que no han sido reconocidos por el hombre. Ejemplos son las hormonas esteroidales, que llevaría a la identificación de los esteroides, al ácido araquidónico, que permitió el desarrollo de las prostaglandinas y tromboxanos etc. • Detección y observación de efectos secundarios o acciones biológicas inesperadas durante el empleo de compuestos activos. Ejemplos son la acción antiagregante de la aspirina por inhibición de la ciclooxigenasa (enzimas implicadas en la síntesis de prostaglandinas), la acción diuréticas de sulfas antibacterianas como la acetazolamina (por inhibición de la anhidrasa carbónica) entre otros muchos ejemplos. • Por observación del metabolismo de los compuestos. En ocasiones, algunos de los metabolitos de un fármaco presentan una actividad superior o diferente a la del propio fármaco de partida. La síntesis de sulfonamidas bacterianas en consideración del metabolismo del prontosil puede servir de ejemplo para este tipo de búsqueda. • El análisis de la actividad biológica de productos intermedios de la síntesis de un fármaco. Tal es el caso de las tiosemicarbazonas empleadas en la síntesis del sulfatiadiazol, que provocaron una nueva estrategia para la terapia de la tuberculosis y el desarrollo de la Amiatizona. A estas informaciones se le pueden unir, como se planteó anteriormente, las informaciones obtenidas a partir del estudio del mecanismo de acción de los compuestos, así como consideraciones relativas a la bioquímica de la enfermedad y procesos del organismo enfermo sobre el cual van a actuar los productos. II.1.2 El desarrollo de un compuesto líder: la variación molecular. Una vez encontrada y definida la cabeza de serie se hace necesario la exploración de la serie por modulación de su estructura con el fin de encontrar un producto mejor. El objetivo que se propone es encontrar nuevos y mejores medicamentos con superior actividad, mejor biodisponibilidad, menor toxicidad y mínimas reacciones secundarias. O sea en otras palabras se refiere a ¿Qué voy a modificar en el compuesto líder?. Esto se conoce como “Variación Molecular”. En la finalidad de esta técnica se pueden distinguir: • Mejora de la potencia del líder. • Eliminación de efectos secundarias no deseados. • Potenciación de acciones secundarias deseadas, ya sea por complemento sinérgico a la acción principal o por sí misma. Esta última se cumple en el caso del desarrollo de las sulfas diuréticas comentado con anterioridad. • Separación de actividades en compuestos multiacción. Tiene como objetivo potenciar alguna de las acciones farmacológicas sobre las demás, o eliminar algunas de ellas en beneficio de las otras. Un ejemplo puede ser el desarrollo de antiinflamatorios esteroidales a los cuales se le busca la disminución de su efecto mineralocorticoide con un incremento de su efecto glucocorticoide. • Combinar actividades. Se trata de reunir en una entidad actividades diferentes que puedan actuar en común frente a desórdenes asociados. Tal es el caso de los antiinflamatorios con efecto antiinflamatorio y analgésico para el tratamiento de enfermedades reumatoideas. También la asociación de la actividad antiagregante a la de los vasodilatadores habituales para el tratamiento de enfermedades vasculares, principalmente en ancianos. • Modificación de la biodisponibilidad del fármaco líder. El descubrimiento de un nuevo fármaco por lo general necesita un mejoramiento en su asequibilidad biológica. Lo anterior pude explicarse con varios ejemplos: a. Protección de la acción de sistemas enzimáticos: Las betalactamasas son enzimas que desdoblan en núcleo β-lactámico de penicilinas y cefalosporinas. La sustitución en posición 3 del grupo acetoxi de la Cefalotina (I) por piridina, genera la Cefaloridina (II) con similares propiedades antibacterianas y resistentes a las esterasas. S S CH2CONH O N I CH2OCOCH3 COOH S S CH2CONH O + CH2 N N COO- II b. Incremento en la selectividad de la acción: Las mostazas nitrogenadas y su actividad anticancerosa pueden servir de ejemplo. La mecloroetamina (III), surge a partir del tristemente famoso gas mostaza empleado en la primera guerra mundial. Este compuesto, con el desarrollo de nuevos citostáticos se convirtió en un fármaco excesivamente tóxico, por lo que debía incrementarse la selectividad de su acción a las células tumorales.De esta manera se desarrollaró el Mefalan (IV), derivado de la fenilalanina. CH3 N CH2CH2CL CH2CH2CL HOOC CH CH2 NH2 N (III) CH2CH2CL CH2CH2CL (IV) c. Modificaciones para alterar la distribución: Se utiliza cuando se desea excluir de algún compartimento biológico al fármaco. La atropina (V) y sus sales de amonio cuaternario (VI) pueden servir de ejemplo. La formación de esta sal aumenta la hidrofilia e impide al fármaco atravezar la barrear hematoencefálica, sin alterarse las acciones anticolinérgicas perisféricas. + N(CH3)2 NCH3 O C CH O C CH CH2OH (V) CH2OH (VI) II.1.3 Método variacional. Tipos de aplicación. En este tópico se enumerarán algunas de las estrategias a seguir para aumentar la eficacia del compuesto líder. Esto es: ¿Cómo voy a modificar al compuesto líder? Entre las estrategias más comunes se encuentran: II.1.3.1 Sustitución bioisotérica. En un enunciado un tanto simplista, es razonable el hecho de que compuestos con una misma actividad biológica, deban poseer también una misma estructura, o al menos puntos comunes en las partes responsables de la actividad, por lo que la sustitución de grupos con igual distribución electrónica en la última capa e igual deslocalización del orbital. Este método es aplicable a las sulfas antibacterianas (VII), en la cual la similitud electrónica del grupo sulfamida al grupo carboxilo del ácido p-aminobenzóico (PABA) (VIII) provoca la “equivocación” del la bacteria. Ahora bien, no siempre las sustituciones bioisostéricas generan una equidad en cuanto a actividad. Ejemplos de este caso lo representan los antibióticos β-lactámicos, en la serie de las penemas (IX), oxapenemas (X) y carbapenemas (XI), en los que el cambio del átomo de azufre por el de oxígeno, aumenta la reactividad del anillo β-lactámico y lo combierte en una molécula “suicida” que inactiva a las β-lactamasas. La sustitución entonces del oxígeno por el etileno (CH2) disminuye nuevamente esta reactividad, incluso a valores inferiores que los de las penemas, por lo que genera moléculas menos activas, aunque aún con utilidades farmacológicas. En general, el término bioisosterismo se aplica para todo el conjunto de analogías que se pueden establecer entre dos agrupaciones atómicas, incluyendo tanto elementos estéricos como electónicos, y en general, todos cuntos sirvan para definir la etructura de una molécula. O O NHR S H2N C H2N O O (VII) S R O (VIII) N O R COOH (IX) O N R COOH O (X) N COOH (XI) II.1.3.2 Modulación Molecular. Esta técnica consiste en variar al compuesto líder con modificaciones limitadas tanto en extención (la molécula debe mantener las características iniciales) como en número (posiciones a modificar). Sin embargo a pesar de restringirse aparentemente las posibilidades de variación en esta técnica, es muy frecuente encontrar resultados positivos en su aplicación. De manera general existen tres tipos diferntes de actuaciones: • Modulación: Comprende isomerización, homología, alquilación, ramificación, desalquilación, saturación, insaturación,cambio en la posición de la insaturación, desplazamiento de una función, introduccion, sustitución o eliminación de heteroátomos, introducción de sistemas cíclicos, contracción o extención de ciclos, S sustitución de ciclos etc. N CH2 N CH2 CH2 CH2 CH2 CH2 N(CH3)2 N(CH3)2 Imipramina Promazina Fig. #2. Cambios de actividad secundaria por extención del ciclo. La imipramina es un antihistamínicoantidepresivo y la promazina un antihistamínico-tranquilizante. • Simplificación: En ocaciones, la molécula se rompe, en un intento de encontrar qué partes o partes son responsables de la actividad biológica que se está estudiando. Con este fin se diseñan compuestos más sencillos, que contengan aisladamente las partes mencionadas. Es necesario aclarar que las partes responsables de la actividad no tienen necesariamente que encontrarse unidas entre sí, sino que pueden encontrase separadas por una serie de átomos que no forman parte desiciva en la interacción con el receptor. En estos estudios se necesita de un verdadero conocimiento de la estructura tridimencional y del comportamiento conformacional del compuesto. CH 3 N N CH3 HO HO OH O Morfina N Levofenol CH3 H3C CH3 N CH3 C OC2H5 C OC 2H5 O O Meperidina Metadona Fig #3. Moléculas obtenidas por la simplificación de la molécula de morfina. Observe la disminución de la complejedad estructural de la morfina, haciendose poco evidente en la uúltima estructura la relación con su líder. • Unión de elementos activos: Se trata de unir en la molécula restos que han demostrado ser activos en otras moléculas. De este tipo de estudio se desprende una evolución en el peso relativo de las diferentes ciencias implicadas en el diseño de nuevos medicamentos. Se observa en primer lugar un aumento progresivo en la importancia que los métodos biológicos tienen como elemento de apoyo y decisión en el planteamiento de las estrategias de síntesis, llegando a ser auténticas piezas claves en muchos casos. También se deduce la necesidad de disponer de técnicas cada vez más avanzadas en el campo del análisis intrumental, como base para la elucidación estructural de los nuevos compuestos. Y siempre como elemento fundamental, la colaboración estrecha entre investigadores de diferentes profeciones por la posibilidad de ofrecer puntos de vistas desde diferentes perspectivas. Los previsibles avances en el campo de la biotecnología, la biología molecular y ciencias afines, están dando un nuevo enfoque al diseño de nuevos medicamentos. El método de las variaciones estructurales siempre estará como método de apoyo en el diseño de estrategias de síntesis, formando parte de los equipos multidisciplinarios decididos a encontrar los mejores medicamentos. III. CAPITULO II: DISEÑO DE FARMACOS ASISTIDO POR COMPUTADORAS En la actualidad existen numerosos métodos experimentales para determinar la estructura molecular de una sustancia. Las espectroscopías ultravioleta (UV), infrarroja (IR), y fundamentalmente la de masas y la de resonancia magética nuclear H1 y de C13 , así como las ténicas de difracción de rayos X son las más comunes. No obstante a ello, el desarrollo alcanzado por la computación y la química computacional ha propiciado la generación de sistemas que permitan calcular la geometría y la energía molecular. Estos sistemas son capaces de generar datos con una amplia aplicación en la investigación experimental, tanto para la interpretación de los resultados obtenidos y la planificación de futuros, así como para deducir información no asequible experimentalmente. En principio se pueden considerar tres tipos de métodos de cálculos teóricos: Los métodos ab initio, los semiempíricos y los de mecánica molecular. La elección de uno u otro método depende fundamentalmente del tamaño de la molécula y del tiempo requerido. En el caso de la mecánica molecular se requiere de menos tiempo de cálculo con respecto a los mecánico-cuánticos, y reproducen los valores experimentales referentes a geometrías y energías con buena precisión. Su uso por tanto en la actualidad está destinado al campo de las macromoléculas, en las cuales los métodos de cálculos mecánico-cuánticos se tornan prohibitivos en cuanto a tiempo respecta. Los métodos que relacionan la estructura química con la actividad biológica asistidos por computadoras pueden dividirse en dos grandes categorías: los Métodos QSAR y los Métodos de Modelación Molecular ó SAR. III.1 TECNICAS SAR O MODELACION MOLECULAR EN EL DESARROLLO DE NUEVOS FARMACOS Los métodos SAR consideran las propiedades de las moléculas en tres dimenciones y son importantes entre otros, el análisis conformacional, la mecánica-cuántica, los campos de fuerzas y los gráficos moleculares interactivos. Estos últimos premiten la representación y la manipulación de las molécula en tres dimensiones, lo que proporciona una información espacial que es esencial para comparar moléculas y para estudiar la interacción entre ligandos y receptores macromoleculares. Estos estudios SAR son utilizados no sólo en el diseño de nuevos fármacos, sino que es aplicable a otras ramas de la ciencia como la ingenería de proteinas y la química de polímeros. III.1.1 Búsqueda del farmacóforo. La búsqueda de los aspectos estructurales indispensables en una serie de moléculas para lograr la unión al receptor y experimentar una actividad farmacológica se conoce búsqueda del farmacóforo. Que no es más que el conjunto de grupos químicos, unidos entre sí o no, que todas las moléculas activas sobre un mismo receptor tienen en común, y que son esenciales para el reconocimiento por el mismo. En la actualidad existen dos formas fundamentales de obtener el farmacóforo: • Cuando no se conoce la estructura del receptor • Cuando se conoce la estructura del receptor III.1.1.1 Obtención del farmacóforo cuando no se conoce la estructura del receptor. En el primer caso, el trabajo está destinado a la búsqueda de las secuencias en la estructura química de múltiples ligandos que se unan a un mismo receptor. Para esto, se utilizan una serie de programas que permiten la visualización tridimencional de las estructuras, a través del cual se pueden realizar rotaciones, traslaciones y operaciones superposición de estructuras, para que en esta serie con una variación sistemática de la estructura química de los ligandos, se llege a detectar, por superposición de las estructuras aquellas regiones de la moléculas que son indispensables para la actividad, y aquellas que son vulnerables a ser sustituidas con variaciones pequeñas en la afinidad. Este tipo de estudio necesita de un análisis conformacional riguroso de cada una de las moléculas a analizar, pues puede ser que para un determinado fármaco, la conformación activa no sea la más estable termodinámicamente, debido a que la energía libre de asociación supera generalmente la energía necesaria para que el ligando sufra un cambio conformacional. Esta limitante, hace que este tipo de estudio sea muy complicado y que los resultados a obtener no sean siempre satisfactorios, pues cada conformación energéticamente accesible, presupone una disposición tridimencional diferente de los grupos candidatos a interaccionar con el receptor. Adicionalmente, es recomendable calcular el volumen del sitiode unión que está realmente disponible para ser ocupado por los ligandos. El volumen mínimo lo proporciona la unión de los volúmenes de todas las moléculas activas en aquellas conformaciones en las que se logró la superposición de grupos, o sea, en aquellas conformaciones que sirvieron para proponer el farmacóforo. Una vez conseguido esto se debe probar con moléculas que posean estos mismos grupos funcionales y sin embargo tengan muy poca o ninguna afinidad por el receptor. En el supuesto que alguno de ellos, no obstante, sea capaz de adoptaruna conformación energéticamente razonable, en la cual los grupos farmacóforos se encuentren correctamente aineado con los compuestos activos, una alternativa explicación posible seria entonces el análisis del volumen molecular de la misma. Si este volumen es superior al calculado para el resto de las moléculas, entonces esta seria una causa razonable de la inactividad del mismo. Si el conjunto de moléculas estudiadas es lo suficientemente grande, se pueden llegar a determinar mapas de volumen para diversos receptores, cuya comparación puede permitir optimizar la actividad de un compuestos con respecto a otro. Esta metodología sirve para caracterizar la topografía de receptores de los cuales no se conoce su estructura tridimencional, al permitir determinar tanto el volumen acsequible al farmacóforo como el volumen abyacente que debe ser excluido de los ligandos. Sobre esta base, Lloyd en 1986, llegó a proponer una estructura farmacófora común para 14 clases diferentes de fármacos que actúan sobre el SNC. Una vez detectado el farmacóforo candidato (o su modelo simplificado del receptor con grupos complementarios adecuados para su interacción) se puede brindar una explicación pausible del porqué, otras estructuras no evaluadas producían un determinado efecto secundario relacionado con la actividad en evaluación y sobre todo permitiría evaluar o diseñar nuevos candidatos que interaccionen con el receptor. Mediante este tipo de estudio ha servido para la definición del farmacóforo de los antagonistas anti-5HT3. Las limitaciones fundamentales de este tipo de estudio estriban en que se discriminan las posibles uniones alternativas que puedan ocurrir entre el ligando y el receptor, o incluso la unión en diferentes sitios del propio receptor. Además se ignora las afinidades relativas perdiendo información sobre la magnitud de la interacción. III.1.1.2 Obtención del farmacóforo cuando se conoce la estructura del receptor. El conocimiento de la estructura del receptor puede simplificar el estudio de identificación del farmacóforo. No obstante, la tarea de determinación de la estructra de una macromolécula como estas, constituye en la actualidad un evento de gran dificultad. Los primeros en describir una estructura y una conformación detallada para una estructura celular fueron los famosos genetistas Watson y Crick en 1953, con sus trabajos sobre el ADN. La doble hélice del mismo, y la complementaridad que deben existir entre los pares de nucleótidos hace que el ADN sea un blanco farmacológico de suma importancia, al que se pueden unir pequeñas y medianas moléculas tanto por intercalación en su doble hélice como impidiendo la formación de la misma. Por otro lado, la primera descripción detallada sobre la estructura y conformación de una proteina data desde 1958, cuando Kendrew caracterizó por cristalografía de rayos X a la mioglobina de ballena. Teniendo en cuenta de que una gran cantidad de fármacos realizan su acción por unión a enzimas o receptores peptídicos, es que este tipo de información estructural sobre las proteinas es de gran utilidad en el diseño de fármacos. En la actualidad existen bancos de datos de coordenadas atómicas (estructuras tridimensionales) de macromoléculas biológicas, procedentes de cristalografía de rayos X y de resonancia magnética nuclear. La mayor base de datos de macromoléculas la constituye el banco de datos de proteinas (PDB) de Brookhaven que cuenta en la actualidad con varios miles de estructuras de proteinas y varios cientos de estructuras de ácidos nucleicos. Actualmente se ha logrado además, la cristalización de la estructuras de receptores en su unión con el ligando, de esta forma, es posible conocer cuáles son los grupos del ligando que interaccionan directamente con el receptor, y cuáles son sus contrapartes en la proteina. Con estos resultados es posible conocer la natuarleza de la unión, la flexibilidad del receptor, y las interacciones que mantienen al ligando unido al mismo, pudiendo estimarse por tanto la energía de estabilización de de este complejo, y además, el aporte por separado, de cada una de las regiones del ligando. Mediante este tipo de estudio, es posible definirse entonces de manera más precisa y exacta, la naturaleza del farmacóforo. Además, la lectura en ordenadores de estos datos del complejo fármacoreceptor, permitirá la manipulación del ligando y la inserción de otros ligandos en la cavidad de unión, pudiendo analizar la naturaleza de la interacción entre estos nuevos ligandos con el receptor. Esto permite además, la inserción de estructuras construidas o diseñadas intencionalmente para su ajuste exacto al receptor, siendo fuente interesante de generación de nuevas entidades farmacológicamente activas. Otra de las utilidades que brinda el conocimiento de los receptores estriban en la posibilidad de estudiar la naturaleza de otras estructuras o receptores análogas a él y no conocidas –en su estructura tridimensional- hasta el momento. Esta técnica se conoce como modelado de receptores farmacológicos. Teniendo en cuenta que la mayoría de los datos de proteinas porvienen de cristalografía de rayos X, la cual se obtiene en estado cristalino, hace que el modelado de proteinas o de receptores farmacológicos afronte dos problemas básicos: 1. El número de conformaciones a tener en una proteina es enorme. Por ejemplo en un receptor de tamaño pequeño de 250 aminoácidos posee unos 750 grados de libertad de ángulos torsionales. Si cada uno de estos ángulos, tiene acseso a sólo 4 valores de mínimos energéticos el número teórico de conformaciones a adoptar por la proteina será de 4 750 . Esto no ocurre cuando se dispone de datos de RMN que brinda los datos de los aspectos dinámicos del movimiento interno de la proteina. Las técnicas actuales de cristalografía de rayos X a baja resolución han logrado mejorar estos resultados. 2. La descripción teórica de la interacción entre los átomos de una proteina requiere la formulación precisa de un potencial o campo de fuerza empírico que contengan términos para representar los enlaces covalentes, los ángulos de enlaces dehidrógeno, y las interaacciones electrostáticas y de van deer Waals. En la actualidad estos programas no son capaces de predecir a partir de una estructura primaria la estructura tridimencional. No obstante estas limitaciones, es posible predecir la estructura y propiedades de una proteina a partir de la estructura tridimensional de otra proteina con un porciento de analogía razonable. De esta forma se logrará tener la estructura “aproximada” de una proteina no conocida y por tanto diseñar nuevos ligandos capaces de acoplarse al centro activo de la misma. III.1,2 Consideraciones Finales. El modelado molecular continúa su evolución aplicando una gran variedad de métodos computacionales al problema de identificar las complejas relaciones existentes entre estructuras moleculares y actividades biológicas en términos de interacciones entre los átomos constituyentes. La introducción de nuevos métodos de cálculos y de ordenadores cada vez más potentes, generarán sin dudas nuevos resultados que culminarán con la optención de nuevas estructuras cada vez más potentes y selectivas. III.2 TECNICAS QSAR EN EL DESARROLLO DE NUEVOS FARMACOS. Las siglas QSAR provienen de la expresión en inglés Quantitative Structure-Activity Relationship que significa en español Estudios cuantitativos de relación estructuraactividad. Para realizar un estudio QSAR es necesario antes que todo, que la actividad biológica del fármaco, producto de su interacción con el receptor, sea una función de las características estructurales de la molécula. El modelo extratermodinámico de Hansch brinda una explicación matemática del fenómeno recogida en la siguiente ecuación: ln A= fh(Xh) + fe(Xe) + fs(Xs) + cte ecuación donde A es la actividad y fh(Xh), fe(Xe), fs(Xs) son funciones de índices o parámetros hidrofóbicos, electrónicos o estéricos respectivamente. El término extratermodinámico proviene de que las relaciones se describen en términos termodinámicos, aunque no se deducen de sus leyes. Las asunciones fundamentales de la metodología extratermodinámica pueden formalizarse en una serie de puntos, la mayoría de los cuales se extraen de la ecuación fundamental, y es lo que se conoce como el paradigma de Hansch, que establece que: 1. La actividad biológica es función de la estructura del fármaco. 2. La estructura del fármaco implica ciertas propiedades globalescomo la hidrofobicidad, carga neta, solubilidad etc... y ciertas propiedades locales como la distribución de la hidrofobicidad, carga y volumen en determinadas posiciones de la molécula. 3. Estas propiedades globales y locales pueden sercuantificadas mediante ciertos parámetros. 4. Siempre existe una función que relaciona los cambios de actividad biológica con los cambios en las propiedades globales y locales, aunque puede ser que no sea sencilla ni evidente. Las funciones estructura-actividad que propone el método extratermodinámico, constituye un método mediante el cual se pueden buscar los productos más activos entre un conjunto de candidatos. La metodología de investigación en el QSAR sigue, independientemente del modelo que se utilice, pasos comunes que se hallan sintetizados en la figura # 4. El punto de partida implica en todos los casos la existencia de un cabeza de serie. Este producto, aunque reviste interés como modelo a desarrollar, tienen propiedades suceptibles a ser mejoradas en aras de obtener siempre un producto lo más biodisponible posible. Prototipo o cabeza de seie Serie de exploración Identificación Sustituyentes Actividad Biológica Tratamiento de la muestra Modelo matemático Productos óptimos Cuando se dispone de un prototipo, es preciso diseñar una serie de exploración, que está constituida por un conjunto de análogos del prototipo, que permietn el establecimiento de las primeras relaciones estructura-actividad. Los miembros de la serie de exploración han de ser sintetizados y evaluados en cuanto a actividad biológica respecta. Los miembros de la serie de exploración están constituidos por un nucleo común, y unos sustituyentes o fragmentos variables, que son característico de cada producto de la serie. Dichos sustituyentes variables han de ser identificados por descriptores, que serán utilizados como variables independientes (Xi) en el modelo. Los valores de actividad biológica (A) –expresados regularmente en forma logaritmica- se utilizan como variable dependiente. Es de particular importancia la calidad de la serie de exploración a emplear, pues la calidad de las predicciones van a estar condicionadas en gran medida al diseño óptimo de esta serie, para así tratar de evitar las fallas en la predicción. III.2.1 Elección de la serie La calidad de una serie de exploración viene definida principalmente por dos aspectos: 1. Disimilaridad de la serie. Los productos de la serie deben ser, respecto a los parámetros elegidos, diferentes entre sí. No tiene sentido intentar estudiar cómo influye una característica sobre la actividad si sólo se estudian productos similares respecto a esta característica. Además, puesto que la serie debe ser una muestra del espacio experimental, el rango de variación de las características dentro de dicha serie debe ser equiparable al que existe en el espacio experimental. 2. Ortogonalidad de la serie. Los productos deben escogerse de tal forma que la variación en las características se produsca de manera independiente. Si la variación de una propiedad X1 viene siempre acompañada de la variación en otra propiedad X2, no es posible conocer si el cambio de actividad de unos a otros productos se debe al cambio en la propiedad X1 ó en la propiedad X2. En estas situaciones se dice que las propiedades X1 y X2 se encuentran correlacionadas en la serie. Una serie en a cual las correlaciones entre los parámetros son mínimas se dice que la serie es ortogonal. Una vez definida y evaluada la actividad biológica de la serie de experimentación se procede al tratamiento de la muestra de la cual se obtiene un modelo matemático que permitirá predecir uno o varios compuestos a los que les serán evaluadas sus actividades biológicas e incorporados, en caso de no presentar una actividad óptima, a la serie de exploración. Este proceso se repetirá el número de veces necesarias hasta lograr la eficacia esperada para el fármaco a obtener. III.2.2 Tipos de estudios QSAR. En la actualidad existen diferentes técnicas por las que se puede desarrollar un estudio QSAR en dependencia del tipo de tratamiento matemático que se le de a la muestra y se pueden clasificar en: • QSAR tradicional • QSAR por redes de neuronas • QSAR tridimensional III.2.2.1 QSAR tradicional. El método tradicional incluye el tratamiento estadístico de los datos por métodos multivariados, que incluye el análisis de regresión, análisis cluster y análisis por componentes principales. En ellos se valora la actividad biológica como variable dependiente del conjunto de descriptores moleculares que constituyen las variables independientes. Como resultado de esto se obtienen modelos que describen la actividad biológica como una determinada función matemática de los descriptores moleculares, bien sean estos estructurales o químico-físicos. El método más familiar es la regresión, en la que se obtendrá la ecuación de una recta, un plano, o de un hiperplano, según sea el número de variables independientes incluida en la expresión. En el caso del análisis cluster, los datos y por lo tanto los compuestos de la muestra, se agruparán por la semejanza entre ellos según los valores de similitud que se le exijan. El análisis de componentes principales tiene como principal objetivo la reducción de variables. A diferencia de lo que pudieramos creer, en la práctica de la modelación estructural el número de descriptores es muy grande y la selección de los que mejor representan a la muestra en la actividad biológica estudiada es dificil de definir en ocasiones. En el análisis por componentes principales, los datos se combinan en una línea recta. Esta línea recta es rotada de diferentes formas y en cada una de ellas se establecen los coeficientes de cada variable. Por lo tanto, en dependencia de la rotación que se haga, así variarán los valores de los coeficientes de cada descriptor estructural o químico-físico y por ende su peso o influencia en este componente. Cada componente (resultado del ajuste a un modelo lineal de todas las variables en las rotaciones efectuadas) se utiliza como una nueva variable. Con estas nuevas variables se puede realizar un análisis de regresión y determinar cual es la componente más importante o de mayor calidad para describir la muestra. Es práctica común emplear solamente aquellas que en su conjunto dan el mayor valor de varianza explicada. El problema entonces para el especialista consiste en poder asignar a esas componentes una significación químico-física o estructural. Recordemos que cada una de ellas es el resultado de la combinación lineal de todos los descriptores. El análisis de regresión múlitiple, como se planteó anteriormente, es el más utilizado dentro del QSAR tradicional. En el, una vez de establecidos los conjuntos de valores de las variables independientes Xi y la actividad biológica A, se obtiene un modelo en forma de ecuación de una recta (ecuación 1), la cual describe la dependencia de la actividad (A) en función del conjunto de descriptores (Xi) así como la magnitud de las contribuciones de cada uno de ellos. A=f(Xi) + cte. Ecuación 1. El modelo así obtenido ha de ser analizado en función de su calidad estadística, para poder evaluar su capacidad de predicción. Cuanto mayor calidad estadística tenga el modelo, más confiables y exactas serán las predicciones a realizar. La calidad estadística de un modelo se evalúa por diferentes estadígrafos. Los más comúnmente aceptados son el coeficiente de regresión r, el valor F de Fischer y la desviación estándar s. Cuanto más tienda a la unidad el valor de r mejor ajuste tendrán los datos al modelo. El valor F correlaciona la varianza explicada (r2) por el número de grados de libertad, con la varianza no explicada (1- r2) por el número de variables del modelo. Cuanto más alto es el porcentaje de varianza explicada por el modelo mayor será el valor de F, mientras que la existencia de variables con baja contribución a la explicación de la varianza, tenderán a disminuir dicho valor, que tiende a infinito en los mejores modelos. La desviación estándar s depende de la varianza no explicada y de los grados de libertad del modelo y es una medida de cuanto se alejan los valores predichos por el modelo de la línea, plano o hiperplano. La tendencia a cero de este valor pudiera presuponer mayor calidad en la predicción. Sin embargo, esto puede conducir a modelos sobrepredictivos en los cuales se refleje exactamente el comportamiento de la muestra pero que no sea posible utilizarlo para la extrapolación de valores en el caso de la predicción de nuevos compuestos. Un valor de s es válido cuando está en el mismo orden de magnitud del error experimental de las mediciones de la variable dependiente (la actividad biológica). En la ecuación 2 se reflejan los datos obtenidos en la evaluación bactericida de un grupo de alcoholes obtenidas por nuestro grupo de investigación. log MIC=31.88(± ±6.95)**-2.10(± ±0.17)P1ΩQC***+2.16(± ±0.62)EHOMO** n=12 r=0.97 F=74.22 s=0.44 Ecuación 2 Como se puede observar en esta ecuación, la actividad bactericida, expresada como función logaritmica de la concentración mínima inhibitoria (log MIC), es una función de dos índices que describen las características de estructurales de la muestra 12 alcoholes evaluada (n=12). Según establece esta ecuación, la actividad aumentaría con un decrecimiento en los valores del índice P1ΩQC, observe el signo negativo delante del valor del índice, el cual sólo admite por definición valores positivos. Un aumento de la actividad también se lograría incrementando el valor de la energía Homo (EHOMO), observe el signo positivo. La constante o intercepto está reflejada en el valor 31.88(± ±6.95). De manera general, según lo establece el modelo, la evaluación de nuevos alcoholes con índices bajos de P1 ΩQC y elevados valores de EHOMO generarán compuestos con mayor poder bactericida. Si analizamos la calidad estadística del modelo observaremos que el mismo, posee un alto coeficiente de correlación r=0.97 un valor de bajo de desviación estándar s=0.44 y un elevado valor de F, por lo que el modelo debe tener una alta capacidad predictiva. Consideraciones adicionales para el establecimiento de una ecuación con calidad se tienen en función del número de variables independientes a incluir en el modelo. Estas variables, deben estar limitadas por el número de compuestos que forman parte de la serie de exploración, de forma tal que, la relación existente entre ellos sea de una variable por cada 5 o 6 compuestos en la serie de exploración. La utilización excesiva de estas variables en una ecuación de regresión puede conducir a reproducciones de la muestra de entrenamiento eliminándole el valor predictivo al modelo. Es necesario señalar además que, mientras mayor número de variables se incluyan en la ecuación, mayor será el número de parámetros a variar en el compuesto a obtener, hecho que se puede tornar difícil en la práctica sintética. III.2.2.2 QSAR por redes de neuronas. III.2.2.3 QSAR tridimencional. El QSAR tridimencional es una técnica moderna que combina los aspectos relacionados en el estudio QSAR clásico con los de los estudios SAR o de modelado molecular. En la representación SAR de los análogos activos, elección se limita a si es activo o inactivo. En la práctica, sin embargo, los resultados son representados en un amplio espectro numérico que reflejan las diferencias cuantitativas entre la unión de uno u otro ligando. Por otro lado el QSAR clásico aborda estos temas de magnitudes en cuanto a las afinidades, pero en estos es imposible considerar la diversidad química que puede interaccionar con el receptor, ya que en este tipo de análisis el establecimiento de una única serie con analogía estructural es indispensable. La necesidad de lograr una interface entre ambos tipos de trabajos necesitó el desarrollo de un nuevo análisis conceptual y computacional. El primer logro en este sentido lo alcanzaron Cramer y colaboradores en 1988 al desarrolar el análisis comparativo de campos moleculares (CoMFA). La premisa básica de este método, es que “el adecuado muestreo de los campos eléctricos y electrostáticos alrededor de un conjunto de moléculas o fármacos, puede proporcionar toda la información necesaria para comprender las actividades biológicas”. Para ser esto posible se precisa del cálculo de los campos de fuerzas por mecánica molecular, que sólo consideran las fuerzas estéricas y eslectrostáticas. Para lograr esto se superponen todas las moléculas en las conformaciones presumiblemente activas y se calculan las energías de interacción estéricas (van der Waals) y las electrostáticas (Coulomb) entre cada una de las moléculas de interés. Posteriormente se recurre a la técnica estadística de los mínimos cuadrados parciales y se extraen las variables que describen la varianza del conjunto de datos, los cuales se someten posteriormente a una técnica de validación crusada. El análisis de regresión lineal múltiple no es aplicable en esta técnica, pues, el número de variables generada en este tipo de estudios es muy elevado. De manera general los pasos a seguir son los siguientes: 1. Postular la conformación activa para el metabolito endógeno o para el fármaco más activo. 2. Alinear el resto de las moléculas y establecer a su alrededor una malla tridimensional como una caja de puntos en el espacio potencial del receptor. 3. Calcular el campo que cada molécula ejercería sobre un átomo sonda situado en cada punto de la malla. 4. Determinar una expresión lineal mediante la técnica de mínimos cuadrados parciales que podría consistir en un conjunto mínimo de puntos de la malla necesarios para distinguir los compuestos sometidos a exámen de acuerdo a las actividades determinadas experimentalmente. 5. Realizar la validación cruzada del modelo (crossvalidation) 6. Ajustar el alineamiento de los compuestos peor predichos y repetir los pasos anteriores hasta encontrar la mayor alineación posible. Estos resultados del QSAR-3D producido por miles de términos (en el QSAR tradicional el número de términos estaba reducido en función del tamaño de la muestra), se pueden visualizar gráficamente en formas de mapas de contorno, pudiendo colorearse de diversos colores para resaltar la dirección y magnitud de la interacción. De tal manera las regiones coloreadas aparecerán en aquellas regiones en donde las diferencias electrónicas y estéricas produscan una mayor variación de la actividad. III.2.3 Validación de modelos. Independientemente del tipo de análisis QSAR empleado el resultado final va a ser un modelo matemático. Para estar completamente seguros de que el modelo obtenido no resulta de un ordenamiento a azar de los datos es común, según las normativas internacionales, verificar la calidad del mismo. El método de regresión lineal múltiple proporciona los valores para los coeficientes que hacen que la función matemática propuesta explique al máximo como varían las actividades. Independientemente de esto siempre quedará una varianza no explicada por el modelo -los residuales-, que corresponden a los errores en las medidas de los datos de actividad y a posibles efectos no incluidos en él -parámetros no considerados-. Mientras mayor sea la diferencia entre la varianza explicada sobre la no explicada mayor será la utilidad del modelo. Esto puede contrastarse con un análisis de varianza y un test de F; cuando el modelo no es satisfactrio se obtiene la no significación en el test. Otro problema es que el modelo no sea predictivo, es decir que la función propuesta no se cumpla para productos no incluidos en la serie de exploración. Esta problemática suele solucionarse realizando una validación cruzada (crossvalidation) con el procedimiento conocido como leave-one-out al modelo, generando los valores promedios de los coeficientes de correlación (r2 ó rcross) y de las desviaciones estándar obtenidos (Spress). Estos valores brindan una idea de la estabilidad estadística del modelo. Otra forma de medir o evaluar la calidad de la ecuación obtenida consiste en determinar la robustes (q2) del mismo, y el mismo se calcula a tarvés de la ecuación siguiente: q2 = (SD-PRESS)/SD ecuación donde SD es la sumatoria al cuadrado de las desviaciones estándares de los residuales y PRESS es la sumatoria al cuadrado de los residuales. Este valor de q2 derivado de la validación cruzada no es más que la habilidad del modelo para realizar la predicción. En un modelo donde rcross no disminuya en más de un 20% con respecto al coeficiente de correlación, puede ser considerado como un modelo predictivo, lo mismo ocurre cuando se obtiene un valor de q2> 0.5. Para que el estudio de relaciones estructura-actividad se concluya con éxito debe obtenerse un modelo significativo y predictivo. Aún así, la validez del modelo estrá siempre limitada al rango de parámetros explorados por la serie de exploración, fuera del cual nunca debe considerarse válido. De hecho, esta es la principal limitación a la hora de buscar el óptimo de actividad predicho por un modelo. Cuando el modelo contiene sólo términos lineales, basta con buscar sustituciones que maximicen los términos con coeficientes positivos y minimicen los términos con coeficientes negativos. Debe tenerse en cuenta, que si se rebasan los valores máximos y mínimos de la serie de exploración, los resultados a obtener en los nuevos compuestos no tienen porqué responder al modelo, pues esos valores no fueron explorados y por tanto incluidos en el modelo. Un ejemplo de esto puede ser un modelo en el cual, con un incremento del coeficiente de partición se aumente la actividad; esto no implica que el con un incremento hasta el infinito de este coeficiente se aumentará ilimitadamente la actividad pues, a valores X de este parámetro puede resultar una incidencia negativa con respecto a la propia actividad, pues al cambiar lógicamente la distribución en el organismo del fármaco este ya no se encontrará en el compartimento adecuado o sufrirá cambios en el metabolismo etc... Esto evidentemente, no pudo ser recogido por el modelo, pues en él este extremo de valores no fué considerado. III.2.4 Descriptores moleculares o Indices. Bajo este término se agrupan una serie de parámetros que a través de valores numéricos representan una información estructural, electrónica, estérica, así como una determinada propiedad químico-física de la molécula en estudio. Desde este punto de vista estos parámetros se clasifican en: • Indices basados en propiedades químico-físicas: Son aquellos, como lo dice su nombre, que derivan de la determinación experimental de una determinada propiedad químico-física de la molécula. • Indices mecánico-cuánticos: Son aquellos que se determinan por cálculos mecanicocuánticos. • Indices topológicos y topográficos: Son aquellos que se determinan a partir del grafo químico, o sea de la estructura química. III.2.4.1 Indices basados en propiedades químico-físicas. Las propiedades químico-físicas en una molécula pueden reflejar la interación de dicha molécula con el receptor. Entre los parámetros químico-físicos más empleados en el QSAR se encuantran: Símbolo Descripción Tipo Referencia Log P Logaritmo del coeficiente de partición Hidrofóbico Hansch, 1979 MR Refractividad Molar Molecular Estérico Hansch, 1973 pKa Constante de ionización Electrónico Martin, 1978 µ Momento dipolar Electrónico Lien, 1982 Todos los parámetros anteriormente reflejados representan propiedades globales de la molécula. Este tipo de parámetro tienen el inconveniente de que esta propiedad es necesario medirla, y muchas veces esto presupone un trabajo laborioso; aunque muchos de estos índices pueden ser determinados por métodos computacionales con aproximaciones bastantes exaxtas a la realidad experimental. Existen además índices fragmentales derivados de la parametrización del índice global en un conjunto de derivados de un cabeza de serie, en la cual sólo varían los sustituyentes en una o varias posiciones de éste. De tal manera, el índice fragmental se calcula por la diferencia existente entre el índice global de la molécula cabeza de serie y el índice global para la molécula experimentada, el valor así obtenido representa la contribución del sustituyente sobre el núcleo básico. De este modo pueden caractirizarse propiedades locales de la molécula, pero también propiedades globales, tomando en consideración el caracter aditivo de cada uno de los valores fragmentales que constituyen la molécula final. De tal modo que se hace innecesaria la síntesis de previa de los productos a caracterizar. Entre estas constantes fragmentarias las más utilizadas son: Símbolo Descripción Tipo Referencia π Constante hidrofóbica del sustituyente Hidrofóbico Fuyita, 1964 σ Constante de Hammett Electrónico Hammett, 1940 Es Parámetro estérico de Taft Estérico Taft, 1956 MR Refractividad Molar de sustituyente Estérico Hansch, 1973 F,R Constantes del efecto inductivo y resonante Electrónico Swain, 1968 III.2.4.2 Índices mecánico-quánticos. En cualquier estudio QSAR, la obtención de un coeficiente de correlación significante está condicionada en gran medida a la utilización de descriptores que logren reproducir el fenómeno estudiado, esto independendientemente del origen del mismo. El desarrollo reciente de la computación ha hecho posible el cálculo mecánico-cuántico de las estructuras químicas. Estos calculos químicos-cuánticos ha generado un creciente interés en la obtención de índices que en un principio, puedan expresar todas las propiedades electrónicas y geométricas de las moléculas, así como, sus interacciones. Es precisamente, la química cuántica, la que brinda una información electrónica más detallada, incluso mayor que métodos empíricos. El tratamiento cúantico de la materia esta basada en el principio de insertidumbre de Heisenberg, según el cual no es posible conocer simultáneamente la posición y el momeno de una partícula. Esto precisa de abordar el problema desde el punto de vista estadístico, por la necesidad de poder encontrar una partícula en un lugar determinado y en un momento dado. Otro concepto fundamental de la mecánica cuántica es que todas las cantidades dinámicas asociadas a cada partícula están cuantificadas. La energía de una partícula tiene un valor discreto, el cual es múltiplo de una energía básica, la constante de Plank. La ecuación fundamental es la de Schrödinger. La ecuación de Schrödinger para el átomo de hidrógeno es: ∇2 ψ - (8π2m/h2) (E+ Z e2/r) ψ = 0 donde ∇2 es el operador diferencial, ψ es la función de onda, h es la constante de Plank, y r la distancia entre el electrón y el núcleo. Para los átomos polielectrónicos, la ecuación de Schrödinger, no puede ser resuelta, pues no es posible la separación de las variables. Para ello es preciso acudir a la expresión de Hartree, que considera cada electrón independientemente, moviéndose en el campo del resto de los electrones y de los núcleos. Teniendo en cuanta el principio de exclusión Pauli, según el cual no pueden existir más de dos electrones en una misma órbita, con dos espines diferentes, se obtiene la expresión de Hartree-Fock; la cual expresada en forma analítica, no matricial, origina la ecuación de Roothaan. Existen dos métodos principales de cálculos mecánico-cuántico, en dependencia de las aproximaciones que se realizan: 1. Los métodos ab initio 2. Los métodos semienpíricos Los métodos ab initio con el modelo Hamiltoniano nos brindan una representación completa de todas las interacciones no relativisticas entre el núcleo y los electrones de la molécula, soluciones no disponibles en la ecuación de Schrödinger. La utilización de este algoritmo de cálculo hace que los métodos ab initio necesiten un elevado tiempo de cómputo, que va a ser proporcional al número de electrones de la molécula, dependiendo por lo tanto de la naturaleza de los átomos y del tamaño de la misma. Sirva como ejemplo la molécula de metano, para la cual es necesario resolver un total de 1080 integrales, 1035 de ellas dielectrónicas. La gran mayoría de los cálculos ab initio utilizan la aproximación del orbital definida en el método de Hartree-Fock. Ellos incluyen interacciones configuracionales (CI), campos autoconsistentes multiconfiguracionales (MC SCF), la teoría de correlación por pares de electrones (CPMET), y la teoría de perturbación. Una alternativa de cálculo mecánico-cuántico lo ofrecen los métodos semiempíricos. Estos métodos han sido desarrollados dentro de la teoría de los orbitales moleculares (SCF MO), pero sobre la base de simplificaciones y aproximaciones introducidas el el algoritmo de cálculo que hacen que los tiempos de cálculos en ordenadores normales se vea dramáticamente reducido con respecto a los métodos ab initio permitiendo una mayor utilización de los mismos. En tal sentido un método semiempírico debe cumplir los siguientes requisitos: 1. Que sea lo suficientemente simple para poder calcular moléculas relativamente grandes. 2. Que mantenga las principales interacciones intermoleculares: atracción por los núcleos y repulción entre los electrones. 3. Que los resultados del cálculo puedan ser interpretados , permitiendo la construcción de métodos cualitativos adecuados. 4. Que compensen por parametrización las insuficiencias del método Hartree-Fock. La principal aproximación que realizan los métodos semiempíricos es que ellos negliguen las integrales de solapamiento, teniendo solamente en cuenta los electrones de valencia de cada uno de los átomos integrantes de la molécula, considerando los electrones internos como parte del núcleo no polarizable. Así, mientras el método semiempírico NDDO calcula un total de 741 integrales para el propano, un método ab initio deberá de resolver un gran total de 38 226 integrales para la misma molécula. Esto en tiempo de cálculo se traduciría en que, para realizarlos en un ordenador con capacidad de un millón de operaciones por minuto, el cálculo semiempírico duraría no más de 5 minutos versus un total de 5 horas para el ab initio en la propia molécula de propano. En principio,cualquier método semiempírico puede ser utilizado para el cálculo de los descriptores mecánico-cuánticos. El primer método aplicado fué el de Hückel en 1931, luego le siguió el PPP en 1935. A partir de este momento se han ido creando nuevos métodos de cálculos, cada uno de los cuales se va haciendo más complejo por el desarrollo lógico que va experimentando la computación, permitiendo realizar cada vez más, operaciones complejas en un menor intervalo de tiempo. Los más populares en orden cronológicos son los siguientes: • La teoría de Hückel extendida (EHT), la cual es una extención de la aproximación de electrones-π de Hückel que trata a todos los electrones de valencia de la molécula. Las integrales de solapamiento son calculadas por las funciones tipo Slater, mientras que las repulsiones elctrónicas y nucleares son obviadas. Este método ha sido preferentemente utilizado para describir cualitativamente la estructura electrónica de sistemas moleculares, no obstante, al obviar importantes interacciones electrónicas la distribución de cargas calculadas son irreales. • El método C.N.D.O. (complete neglect differential overlap) es el más simple de los métodos semiempíricos. En el se obvian el solapamiento de orbitales atómicos, tanto diatómicos como el del átomo simple, creando una aproximación incorrecta en el sentido de que no existe justificación para no incluir el solapamiento diferencial de un átomo simple. • Los métodos I.N.D.O (intermediate neglect differential overlap) y M.I.N.D.O (modified INDO) se desarrollan bajo el compromiso en el cual el solapamiento de un centro es retenido en las integrales de un centro. Estos métodos representan una aproximación más real a la práctica que los anteriores, pero todavía existe una reducción sustancial de las repulsiones electrónicas, utilizando un mínimo set de electrones de valencia y negligiendo todas las integrales que implican el solapamiento de orbitales atómicos, exeptos las integrales de resonancia monocéntricas y las integrales monocéntricas de canje. En estos métodos y el metodo CNDO, las integrales de repulsión entre los orbitales atómicos del átomo A y cualquiera del átomo B, forman un set igual, tanto si son del tipo s, p, σ ó π. • Los métodos M.N.D.O (modified neglect of diatomic overlap), el AM1 (Austin model 1) y el PM3 (parametric model 3) están basados en la correcta inclusión del solapamiento de un centro, negando u obviando solamente el solapamiento diferencial diatómico. A diferencia de los métodos CNDO, INDO y MINDO estos métodos consideran un número adicional de integrales bicéntricas, así para cada par de átomos no similares es necesario calcular 22 integrales a diferencia de una única integral a calcular en los métodos CNDO, INDO y MINDO. Según Dewar, autor de los métodos MNDO y AM1, el método MNDO no describe correctamente la energía de los enlaces por puentes de hidrógeno y la de los aniniones, así como sobrestima las repulsiones electrónicas. Estas dificultades son mejoradas por el método AM1 sin que ello incremente el tiempo de cómputo. Posteriormente Stewart, uno de los colaboradores de Dewar realizó una reparametrización del método AM1 generando así el PM3. No obstante a ello no se ha logrado demostrar la superioridad de uno con respecto al otro (AM1 y PM3), por lo que en la literatura actual es común encontrarse trabajos que utilizan uno u otro método sin que esto atente contra la calidad de los resultados. Por los motivos anteriormente descritos, los métodos semiempíricos han tenido un amplio uso en el diseño de fármacos, toda vez que son métodos que reproducen en gran medida las propiedades reales de las moléculas, invertiendo para ello, poco tiempo de cálculo; a diferencia de los métodos ab initio en los que el tiempo de cálculo resulta en realidad una gran limitante. No obstante a ello es necesario resaltar que los cálculos ab initio son los que reproducen con mayor fiabilidad las características estructurales de las moléculas, divergiendo en no más de un 2% con respecto a los datos experimentales. Para un estudio QSAR lo importante a obtener de estos cálculos químico-cuánticos son índices que me permitan describir las características electrónicas y energéticas de las moléculas. Debido a la amplia información que pueden contener estos descriptores teóricos, su utilización en estudios QSAR puede tener dos grandes ventajas: 1. Los compuestos y sus varios fragmentos y sustituyentes pueden ser directamente caracterizados sobre la bse exclusiva de su estructura molecular. 2. El mecanismo de acción propuesto para los fármacos a estudiar pueden estar directamente relacionado con la reactividad química calculada. Consecuentemente, los modelos QSAR obtenidos con la utilización de índices o descriptores moleculares de esta naturaleza, incluirán información de la naturaleza de las fuerzas intermoleculares envueltas en la acción del o de los fármacos. A continuación se relacionan los principales índice mecanico-cuánticos empleados en los estudios QSAR: Definición Qa Qmin, Qmax qE,A, qN,A qA,σ, qA,π εHOMO εLUMO SE,A, SN,A α µ ET ∆H0f Nombre Carga neta sobre el átomo A Cargas netas más negativa y positiva de la molécula Cargas electrónicas nucleofílicas y electrofílicas, calculadas a partir delos orbitales ocupados y desocupados respectivamente. Densidades electrónicas σ y π del átomo A Energías HOMO y LUMO. Significan las energías del último orbital ocupado y la del primer orbital sin ocupar respectivamente. Superdeslocalizabilidad electrofílica y nucleofílica. Polarizabilidad Molecular Momento dipolo molecular Energía total de la molécula Calor de formación Cargas Atómicas: De acuerdo a la teoría química clásica, todas las interacciones químicas son por naturaleza o electrostáticas (polares) o orbitalarias (covalentes). Es una evidencia práctica, que las densidades electrónicas locales o cargas, son importantes en muchas reacciones químicas y en muchas propiedades químico-físicas de las moléculas. Así, los descriptores basados en las cargas han sido extensamente empleados como índices de reactividad química y como medidores de las interacciones intermoleculares débiles tal y como ocurre en las interacciones iónicas entre el fármaco y el receptor. Las cargas parciales sobre los átomos han sido utilizadas como índices de reactividad química estacionarios. Las densidades electrónicas σ y π por su parte, caracterizan la posible orientación de las interacciones químicas, por lo que son consideradas índices direccionales de reactividad. Por el contrario, las densidades electrónicas y las cargas netas sobre los átomos son considerados índices de reactividad no direccionales. Energías de los orbitales moleculares: Las energías HOMO y LUMO son los descriptores químico-cuánticos más populares. Se ha demostrado que estos orbitales juegan un papel muy importante en muchas de las reacciones químicas y en la formación de los complejos de transferencia de cargas. De acuerdo con la teoría de los orbitales moleculares fronteras (FMO) de la reactividad química, la formación deun estado de transición se debe a la interacción entre los orbitales fronteras HOMO y LUMO de las especies químicas reactantes. La energía HOMO está directamente relacionada con el potencial de ionización, y caracteriza la suceptibilidad de la molécula a ser atacada por electrófilos. La energía LUMO está directamente relacionada con la afinidad electrónica y caracteriza la afinidad de la molécula a ser atacada por nucleófilos. Superdeslocalizabilidades. La superdeslocalizabilidad es un índice de reactividad de los orbitales ocupados y no ocupados y está relacionada con la contribución hecha por el átomo, a la estabilización en la energía de formación de un complejo de transferencia de carga con una segunda molécula, o la capacidad del reactante de establecer enlaces a través de tranferencia de cargas. La distinción hecha entre nucleofílica y electrofílica están relacionadas con la naturaleza de la superdeslocalizabilidad, si esta es aceptora o donora respectivamente. Las Superdeslocalizabilidades son conocidas también como índices de reactividad dinámica. A diferencia de los índices estáticos (cargas), que describen moléculas aisladas en su estado base, los índices dinámicos de reactividad se refieren a los estados transicionales en las reacciones. Polarizabilidad Molecular: Se refiere a la polarización que puede sufrir una molécula por un campo eléctrico externo, cuya propiedad más significativa es su relación con el tamaño molecular o el volumen molar. Se ha demostrado que la polarizabilidad guarda relación conel coeficiente de partición; de ahí su aplicabilidad en estudios derelación estructura-actividad. Momento dipolo: La polaridad de una molécula guarda una estrecha relación con varias porpiedades físico-químicas. El momento dipolo de la molécula es un reflejo de la polaridad global de la molécula. Energías: Las energías totales y los calores de formación de las moléculas son un reflejo de la estabilidad de las mismas, por lo que el empleo de estos índices puede conducir a la explicación del fenómeno estudiado. III.2.4.3 Índices topológicos y topográficos. La topología es aquella parte del álgebra que estudia las posiciones e interconexiones entre los elementos de un conjunto. Esta rama de la ciencia, aplicada a la estructura química ha dado origen a una disciplina llamada “Topología Molecular” que analiza presisamente las posiciones y las interconecciones entre los atómos de una molécula dada. De esta forma se lograría caracterizar estructuralmente los compuestos. Para definir dichos índices se representan por puntos los átomos de la moécula (excluyendo a los de hidrógeno) y por rayas o segmentos los enlaces. De tal manera se obtiene el grafo de la molécula o grafo químico como comunmente se conoce. Con posterioridad se construye la matriz topológica cuyos elementos toman el valor de uno o cero en dependencia de si el átomo “i” está enlazado o no al átoma “j”. Así se genera una matriz cuadrada de “n” filas por “n” columnas, siendo “n” el número de número de vértices del grafo o lo que es lo mismo el número de átomos. El resultado del cálculo genera un valor numérico que representa o describe la estructura química de la molécula, por lo que este tipo de descriptores tienen una gran utilidad en los estudios QSAR. De esta forma se pueden generar matrices de abyacencia y matrices de distancias entre vértices. Las matrices de abyacencia describen la unión o no entre átomos y la de distancias el números de átomos existentes entre un atómo “X” y otro no enlazado a él. Sirva como ejemplo ilustrativo de la construcción de estas matrices la molécula de isopentano. V2 e1 V1 e2 V3 V5 e3 e4 V4 0 1 Α = 0 0 0 1 0 0 0 0 1 0 0 1 0 1 1 0 1 0 0 0 1 0 0 0 1 D = 2 3 3 1 2 3 3 0 1 2 2 1 0 1 1 2 1 0 2 2 1 2 0 Matriz de adyacencia Matriz de distancia entre vértices entre vértices Observe que para la matriz de abyacencia del átomo o vértice 1 (V1) le corresponden valores en la matriz, de 0 para los átomos 1, 3, 4 y 5 y valor de 1 para el vértice 2 (V2), pues es solamente con él que se encuentra enlazado. Así mismo para V3 le corresponden valores en la matriz de 0 para los vértices 1 y 3 y valores de 1 para los átomos 2, 4, 5. De esta forma se obtiene un valor numérico que representa o describe la estructura molecular. En la matriz de distancia, a V1 se le asignan valores de 0, 1, 2, 3 y 3, pues ésta es el número de átomos mínimos que lo separan de los átomos 1, 2, 3, 4 y 5. Esta es otra forma de describir el grafo químico a través de un valor numérico, pero utilizando en este caso las distancias mínimas que separan un átomo de otro. El grafo molecular puede ser subdividido en subgrafos en dependencia del número de ejes interconectados al vértice. Estos subgrafos se clasifican según su orden (m) y su tipo (t). El orden de un grafo no es más que el número de ejes o enlaces que contiene el vértice, considerando como simples a los enlaces múltiples. Los tipos de los subgrafos por otro lado se clasifican en cuatro tipos: ♦ Tipo Camino (p), que son aquellos subgrafos que la valencia (número de enlaces) de sus vértices son menores o iguales que dos. Téngase en cuenta que los átomos de hidrógeno no se consideran en el grafo molecular. ♦ Tipo Cluster (c), constituido por aquellos subgrafos que tienen al menos algún vértice con valencia 3 o 4, pero ninguno con valencia de dos. ♦ Tipo Camino-cluster (pc) Son los subgrafos que incluyen vértices con valencias de dos, además de algunos con valencia de 3 o 4. Estos índices de conectividad mχt correspondena en cada caso a la suma de todos los subgrafos de tipo t y de orden m., y están relacionados con la ecuación 3: m mχ = Sj t ∑ j =1 n m Ecuación 3 Donde nm es el número de subgrafos tipo t y de orden m. Los términos mSj se definen como el inverso de la raiz cuadrada del producto de las valencias de los vértices integrantes del subgrafo, Donde j define un subgrafo en particular. Sirva como ejemplos de subgrafos la molécula de isopentano: Tipo (t) Orden (m) 1 2 3 4 Camino Cluster CaminoCluster Como bien se puede observar en la figuar anterior, la molécula de isopentano esta integrada por cuatro caminos de orden 1 y 2, 2 caminos de ordenes 3, y un cluster de orden 3 y un camino cluster de orden 4. De tal forma, el subgrafo camino de orden 1 estará formado por la sumatoria de los valores de los cuatro caminos obtenidos para la molécula en cuestión. De manera general, es necesario señalar que el el trabajo QSAR se utilizan el subgrafo camino desde orden 1 hasta orden 6, los cluster desde orden 3 hasta 6 y los caminos cluster desde el orden 4 hasta el orden 6. La definición de algunos de los índices obtenidos por esta metodología aparecen recogidos en la tabla siguiente: ÍNDICE DEFINICIÓN χ = ∑ [δ (v )δ (v )] Conectividad Molecular (Randic) m r =1 i − 1/ 2 j [ 1χ = ∑ δ (vi )δ (v j )Κ δ (v l +1 ) Conectividad molecular m extendido r =1 ] − 1/ 2 donde δ(vi), δ(vj),… δ(vl+1) son los grados de los vértices en la cadena considerada Conectividad de valencia [ 1χ v = ∑ δ v (vi )δ v (v j ) m l =1 ] − 1/ 2 i≠ j Para evitar el uso indiscriminado de este tipo de índice, uno de los más prestigiosos investigadores en esta área de la química ha propuesto que para la generación de nuevos índices de esta naturaleza, estos deben cumplir los siguientes atributos: Atributos deseables para los índices topológicos, según randic 1. Interpretación estructural directa. Indices basados en conceptos estructurales sencillos ayudan a interpretar propiedades en términos de estructura química. 2. Buena correlación con al menos una propiedad. Esto sugiere el aspecto estructural dominante en la propiedad. 3. Buena discriminación de isómeros. Necesario cuando la propiedad en estudio cambia con el isómero. 4. Localmente definidos. Es decir, que no se obtengan de forma global, sino localmente como en los índices de conectividad, en que se definen por la conectividad de cada átomo. 5. Generalizable a análogos superiores. Por ejemplo, los índices 1 χ , 2 χ , 3 χ ,…,etc. 6. Linealmente independientes. Permite describir información estructural no contenida en otros índices. 7. Simplicidad. Facilita su interpretación. 8. Que no estén basados en propiedades físico-químicas. 9. Queno estén relacionados de manera trivial con otros índices. 10. Eficiencia de construcción. Facilita su cálculo. 11. Basados en conceptos estructurales familiares. 12. Mostrar una dependencia correcta con el tamaño.las propiedades que dependen del tamaño y en general, la selectividad de los índices disminuye con el tamaño del grafo. 13. Tener cambios graduales con cambios graduales en la estructura. III.2.5 Criterios de selección de parámetros. No existe ningún criterio simple ni único, para seleccionar qué parámetros deben utilizarse en un estudio de relación estructura-actividad. Ante un problema nuevo se debe comenzar a buscar en la literatura trabajos previos realizados sobre el mismo tipo de productos, y de no encontrarse, sobre productos parecidos o con la misma actividad. En general, en esta primera etapa, cualquier tipo de información puede ser orientadora respecto a las características físico-químicas que pudieran intervenir en la actividad, y por tanto cuáles son los parámetros más adecuados para describirlas. No obstante, es posible encontrarse en situaciones en las cuales no se disponga de ninguna información previa; en esos casos, una solución inteligente es seleccionar algunos parámetros representativo de cada una de las propiedades físico-químicas, electrónicas, estéricas y estructurales de la molécula. Esta primera orientación, aunque no genere un buen modelo, podrá señalar cuáles de estos parámetros tiene una mayor influencia en la actividad y por tanto aumentar el número de índices que me describen la misma en un segundo intento de análisis. III.2.6 Situación actual y Tendencias futuras del diseño de fármacos. El avance sostenido que ha experimentado la bioquímica y la biología molecular en cuanto a la identificación de macromoléculas dianas, la identificación de secuencias de nucleótidos y aminoácidos, llegando en algunos casos, a la elucidación a nivel atómico de su estructura y del complejo fármaco-receptor; unido a los poderosos sistemas computacionales, que haciendo uso de esta información pueden crear modelos tridimencionales del ligando y del receptor; hacen posible en la actualidad, el estudio de preferencias configuracionales, de la naturaleza y las magnitudes de las fuerzas interatómicas que gobiernan su interacción, así como el comportamiento dinámico de este complejo. Estos procedimientos ayudan al mejor entendimiento del comportamiento de estos sistemas a nivel subcelular, permitiendo establecer comparaciones entre los datos teóricos y los experimentales, e incluso realizar predicciones cuantitativas. Teniendo en cuanta los avances que promete tener la farmacología molecular, es de suponer que el futuro del diseño de fármacos no esté destinado como hasta el presente, a la obtención de sustancias que puedan ser reconocidas por los receptores o que modulen la síntesis, metabolismo o recaptación de los neurotransmisores, sino que estará orientado a obtener sustancias que actúen sobre los sistemas enzimáticos activadores de la cascada de eventos que lleva consigo una respuesta farmacológica. Entiéndase por sistemas enzimáticos activadores de la cascada de eventos a las proteinas G o cualquiera de sus subunidades, las enzimas formadoras de mensajeros secundarios, las proteínaquinasas entre otras. El influir mediante estos fármacos sobre estós mecanismos intermediarios entre el receptor y el efector, pueden dar origen a sustancias muy selectivas que operen selectivamente sobre las células que padescan la disfunción. El hecho de que no siempre es mejor actuar sobre los receptores lo suguiere el hecho de que frente a una exposición contínua del agonista o del antagonista, se produscan fenómenos de desensibilización o supersencibilidad, que pueden ser responsables de nuevas alteraciones fisiológicas.