Introducción al Diseño de Fármacos

Anuncio
Introducción al diseño de Fármacos
J.C. Escalona, R. Carrasco, J. A. Padrón
Folleto para la docencia de la asignatura de Farmacia, Universidad de Oriente.
INDICE
I.
Introducción _________________________________________________ 1
II
Capítulo I. Diseño de Fármacos. Métodos Tradicionales. _____________ 4
II.1
Métodos Variacionales _______________________________________
II.1.1
Búsqueda del compuesto líder o cabeza de serie ____________________ 5
II.1.2
El desarrollo de un compuesto líder: La variación molecular. __________ 6
II.1.3
Método Variacional. Tipo de aplicación. __________________________ 8
4
II.1.3.1 Sustitución bioisostéricas ______________________________________ 8
II.1.3.2 Modulación Molecular ________________________________________ 9
III.
Capitulo II. Diseño de fármacos asistido por computadoras. ___________ 12
III.1
Técnicas SAR o modulación molecular en el desarrollo de nuevos
Fármacos. __________________________________________________ 12
III.1.1
Búsqueda del farmacóforo. _____________________________________13
III.1.1.1 Búsqueda del farmacóforo cuando no se conoce la estructura del
receptor. ____________________________________________________13
III.1.1.2 Búsqueda del farmacóforo cuando se conoce la estructura del receptor. ___14
III.1.2
Consideraciones finales. ________________________________________ 16
III.2
Técnicas QSAR en el desarrollo de nuevos fármacos. _________________ 17
III.2.1
Elección de la serie. ___________________________________________ 19
III.2.2
Tipos de estudios QSAR. _______________________________________ 20
III.2.2.1 QSAR Tradicional. ____________________________________________ 20
III.2.2.2 QSAR por redes de neuronas. ____________________________________
III.2.2.3 QSAR tridimensional (3D-QSAR). ________________________________
III.2.3
Validación del modelo. __________________________________________
III.2.4
Descriptores moleculares o índices. ________________________________
III.2.4.1 Indices basados en propiedades químico-físicas. ______________________
III.2.4.2 Indices mecánico-cuánticos. ______________________________________
III.2.4.3 Indices topológicos y topográficos. _________________________________
III.2.5
Criterios de selección de parámetros. _______________________________
III.2.6
Situción actual y tendencias futuras. ________________________________
I.
INTRODUCCION
La historia del medicamento se remonta a los orígenes de la sociedad humana. Desde
los primeros tiempos el hombre a acudido a la naturaleza para obtener sustancias que o
bien le ayudaran a paliar su dolor, los síntomas de sus enfermedades... o bien le
facilitaran la obtención del alimento (veneno para la caza), sus relaciones sociales y
religiosas (estimulantes y alucinógenos) etc. Esta circunstancia ha permitido disponer de
una amplia información, que sometida a la observación atenta y estudio crítico, ha dado
lugar al planteamiento de ideas que, debidamente desarrolladas, han llevado a la
obtención de nuevos medicamentos, de sustancias líderes. Esta historia previa es la
causa de que en la actualidad el modelo de aproximadamente la mitad de los productos
de que se dispone sea de origen natural. Modelos que, obtenidos a partir de un
organismo vivo, han sufrido diferentes modificaciones en el laboratorio, encaminadas a
obtener moléculas más potentes y menos tóxicas que las originales, las cuales en
realidad no habían sido diseñadas para un tratamiento específico.
El descubrimiento de un nuevo medicamento y desarrollo posterior del mismo, son dos
fases, que condicionan lograr un nuevo producto que sea útil en la terapéutica.
El descubrimiento debe ser diferenciado del desarrollo. Se ha acordado de manera
general que el descubrimiento comprende toda la fase para que podamos asegurar que el
compuesto tiene un deseable perfil de actividad; comprende desde la síntesis, el
aislamiento de la fuente natural, o la obtención biotecnológica y toda la fase preclínica,
incluida la toxicología; de manera tal que nos confirmen que el compuesto es aceptable
en cuanto eficacia y seguridad para su ensayo en seres humanos. Comprende en un
sentido más amplio, un gran conjunto de actos que culminan en la utilización
terapéutica de un nuevo medicamento (Fig #1).
Esta fase de descubrimiento, o sea desde la obtención hasta la primera aplicación en
humanos, se estima que dure aproximadamente 42,6 meses (3,55 años) como promedio,
en aquellos países y transnacionales farmacéuticas con una amplia infraestructura
investigativa. En países con un nivel menor de desarrollo esta fase alcanza
aproximadamente unos 5-6 años.
La fase de desarrollo comprende la de los estudios clínicos y la del registro
farmacéutico, y se estima que duren entre 68.6 meses y 30.3 meses respectivamente.
Todo este largo proceso, desde su obtención hasta su registro comprende un total de
11.8 años de investigación, con un costo promedio de 231 millones de dólares por cada
nuevo medicamento que salga al mercado.
Obtención y caracterización química del producto.
Ensayos Preclínicos
Definición del lugar y del mecanismo de acción
Desarrollo de la formulación galénica
Estudio de toxicidad aguda
Estudio de tolerancia local
Estudios de toxicidad subaguda en dos especies
Estudios suplementarios de toxicidad
aguda (otras vías y especies)
Teratogenicidad
(dos especies)
Informe final de los efectos tóxicos
Desarrollo de métodos para la determinación
de la sustancia en el material biológico.
Farmacocinética y metabolización
(Modelos animales)
Preparación Farmacéutica adecuada
Estudios de la
tolerancia local
A veces, estudios toxicológicos
en teraceras especies.
Farmacología general de la sustancia
Técnicas
estandarizadas
Técnicas
comparadas
Farmacodinámica
Efectos
secundarios
Estudios
microbiológicos
Espectro de
actividad
Lo más alarmante es que sólo una de cada 10 000 moléculas ensayadas pasa a la fase de
desarrollo, una de cada 100 000 supera los ensayos clínicos y logra registrarse y sólo 3
de cada 10 nuevos medicamentos registrados recupera su inversión inicial. Esto genera
una triste realidad, por cada millón de moléculas que se inician en esta larga cadena para
la obtención de un nuevo medicamento, sólo tres recuperan la inversión inicial. Por tal
motivo el diseño racional de fármacos, constituye una herramienta casi indispensable en
el desarrollo actual de nuevos medicamentos, contribuyendo a un aumento de las
posibilidades de éxitos y a un decrecimiento de los costos.
El desarrollo de medicamentos cada vez más seguros, adecuados y efectivos en el
tratamiento de enfermedades, es una tarea que requiere del esfuerzo coordinado e
inteligente de un elevado números de profesionales de distinta formación y dedicación,
en la que la capacidad de deducción, la institución y en muchos casos, la suerte, han
jugado un papel fundamental. Reconociendo la importante contribución del azar en el
resultado positivo de este esfuerzo, es preciso matizar que su base está sólidamente
anclada en un diseño inteligente y racional ya que sólo acudiendo al azar, nunca se
obtendrán medicamentos eficaces y seguros.
Si se conoce la base biológica de una enfermedad o de un desarreglo metabólico, es
posible diseñar un medicamento, utilizando un mecanismo de aproximación al proceso
patológico. Cuando se conoce este proceso en su base molecular y se pueden definir las
moléculas implicadas en el mismo, es posible diseñar medicamentos que interactúen
con la molécula responsable, de tal forma que la modifique y se modifique así mismo la
patología.
Lo primero, sería definir la base molecular del proceso patológico, para lo cual es
preciso conocer los diversos pasos implicados en un proceso fisiológico, que conlleva la
realización de una función normal y el conocimiento de qué paso, exactamente, es el
que está alterado, en la situación patológica.
Para conocer a profundidad el proceso fisiológico, es necesario conocer la estructura
tridimensional de la(s) molécula(s) objetivo, esto es pocas veces posible, sobre todo por
la dificultad de obtener los receptores en estados cristalinos. Los métodos más utilizados
en este sentido son la Resonancia Magnética Nuclear, la cristalografia de rayos X y los
cálculos teóricos de las fuerzas que mantienen la configuración de un sistema, ya sea
por mecánica molecular o mecánica cuántica.
II. CAPÍTULO I: DISEÑO DE FARMACOS. METODOS
TRADICIONALES.
II.1
METODOS VARIACIONALES.
En este capítulo se considerará de forma breve, con algunos ejemplos, la metodología
de este diseño, las circunstancias y cadenas de hechos que llevan al descubrimiento de
nuevos compuestos considerados como líderes o cabezas de serie, y su posterior
desarrollo, la aplicación en definitiva, de las técnicas que de forma general se conocen
como “Variaciones estructurales”.
II.1.1 Búsqueda del compuesto líder o cabeza de serie.
Aunque en la búsqueda de una cabeza de serie se pueden aplicar varios métodos los más
empleados son:
•
El empleo de productos activos presentes en drogas utilizadas en la medicina
tradicional.
•
Estudio de nuevos compuestos de la síntesis química o de la biotecnología.
Ambos métodos requieren de la existencia previa de una amplia batería de ensayos
biológicos cuidadosamente diseñados, que permitan determinar con rapidez y de
manera inequívoca la actividad biológica de los nuevos compuestos.
En el caso de estudios de compuestos empleados en la medicina tradicional, es más
fácil, en principio, el diseño de la prueba biológica, ya que se cuenta con información
previa de la actividad prevista; se trata de comprobar simplemente de manera científica
el empleo popular. Sin embargo, cuando se desconoce la posible actividad, la batería de
ensayos ha de ser lo suficientemente amplia, en el intento de no perder ninguna
información interesante. Lamentablemente los costos asociados a este tipo de estudios
hacen que estos se vean limitados en número y en el espectro de acciones biológicas.
Otras vías de obtener un compuesto líder o cabeza de serie son:
•
Aislamiento de los productos responsables de una acción biológica determinada y
su posterior identificación y caracterización. Esto se cumple fundamentalmente en
productos naturales que no han sido reconocidos por el hombre. Ejemplos son las
hormonas esteroidales, que llevaría a la identificación de los esteroides, al ácido
araquidónico, que permitió el desarrollo de las prostaglandinas y tromboxanos etc.
•
Detección y observación de efectos secundarios o acciones biológicas inesperadas
durante el empleo de compuestos activos. Ejemplos son la acción antiagregante de
la aspirina por inhibición de la ciclooxigenasa (enzimas implicadas en la síntesis de
prostaglandinas), la acción diuréticas de sulfas antibacterianas como la
acetazolamina (por inhibición de la anhidrasa carbónica) entre otros muchos
ejemplos.
•
Por observación del metabolismo de los compuestos. En ocasiones, algunos de los
metabolitos de un fármaco presentan una actividad superior o diferente a la del
propio fármaco de partida. La síntesis de sulfonamidas bacterianas en consideración
del metabolismo del prontosil puede servir de ejemplo para este tipo de búsqueda.
•
El análisis de la actividad biológica de productos intermedios de la síntesis de un
fármaco. Tal es el caso de las tiosemicarbazonas empleadas en la síntesis del
sulfatiadiazol, que provocaron una nueva estrategia para la terapia de la
tuberculosis y el desarrollo de la Amiatizona.
A estas informaciones se le pueden unir, como se planteó anteriormente, las
informaciones obtenidas a partir del estudio del mecanismo de acción de los
compuestos, así como consideraciones relativas a la bioquímica de la enfermedad y
procesos del organismo enfermo sobre el cual van a actuar los productos.
II.1.2 El desarrollo de un compuesto líder: la variación molecular.
Una vez encontrada y definida la cabeza de serie se hace necesario la exploración de la
serie por modulación de su estructura con el fin de encontrar un producto mejor. El
objetivo que se propone es encontrar nuevos y mejores medicamentos con superior
actividad, mejor biodisponibilidad, menor toxicidad y mínimas reacciones secundarias.
O sea en otras palabras se refiere a ¿Qué voy a modificar en el compuesto líder?. Esto se
conoce como “Variación Molecular”.
En la finalidad de esta técnica se pueden distinguir:
•
Mejora de la potencia del líder.
•
Eliminación de efectos secundarias no deseados.
•
Potenciación de acciones secundarias deseadas, ya sea por complemento sinérgico a
la acción principal o por sí misma. Esta última se cumple en el caso del desarrollo
de las sulfas diuréticas comentado con anterioridad.
•
Separación de actividades en compuestos multiacción. Tiene como objetivo
potenciar alguna de las acciones farmacológicas sobre las demás, o eliminar algunas
de ellas en beneficio de las otras. Un ejemplo puede ser el desarrollo de
antiinflamatorios esteroidales a los cuales se le busca la disminución de su efecto
mineralocorticoide con un incremento de su efecto glucocorticoide.
•
Combinar actividades. Se trata de reunir en una entidad actividades diferentes que
puedan actuar en común frente a desórdenes asociados. Tal es el caso de los
antiinflamatorios con efecto antiinflamatorio y analgésico para el tratamiento de
enfermedades reumatoideas. También la asociación de la actividad antiagregante a
la de los vasodilatadores habituales para el tratamiento de enfermedades vasculares,
principalmente en ancianos.
•
Modificación de la biodisponibilidad del fármaco líder. El descubrimiento de un
nuevo fármaco por lo general necesita un mejoramiento en su asequibilidad
biológica. Lo anterior pude explicarse con varios ejemplos:
a. Protección de la acción de sistemas enzimáticos: Las betalactamasas son enzimas
que desdoblan en núcleo β-lactámico de penicilinas y cefalosporinas. La sustitución
en posición 3 del grupo acetoxi de la Cefalotina (I) por piridina, genera la
Cefaloridina (II) con similares propiedades antibacterianas y resistentes a las
esterasas.
S
S
CH2CONH
O
N
I
CH2OCOCH3
COOH
S
S
CH2CONH
O
+
CH2 N
N
COO-
II
b. Incremento en la selectividad de la acción: Las mostazas nitrogenadas y su
actividad anticancerosa pueden servir de ejemplo. La mecloroetamina (III), surge a
partir del tristemente famoso gas mostaza empleado en la primera guerra mundial.
Este compuesto, con el desarrollo de nuevos citostáticos se convirtió en un fármaco
excesivamente tóxico, por lo que debía incrementarse la selectividad de su acción a
las células tumorales.De esta manera se desarrollaró el Mefalan (IV), derivado de la
fenilalanina.
CH3 N
CH2CH2CL
CH2CH2CL
HOOC CH CH2
NH2
N
(III)
CH2CH2CL
CH2CH2CL
(IV)
c. Modificaciones para alterar la distribución: Se utiliza cuando se desea excluir de
algún compartimento biológico al fármaco. La atropina (V) y sus sales de amonio
cuaternario (VI) pueden servir de ejemplo. La formación de esta sal aumenta la
hidrofilia e impide al fármaco atravezar la barrear hematoencefálica, sin alterarse las
acciones anticolinérgicas perisféricas.
+
N(CH3)2
NCH3
O
C CH
O
C CH
CH2OH
(V)
CH2OH
(VI)
II.1.3 Método variacional. Tipos de aplicación.
En este tópico se enumerarán algunas de las estrategias a seguir para aumentar la
eficacia del compuesto líder. Esto es: ¿Cómo voy a modificar al compuesto líder?
Entre las estrategias más comunes se encuentran:
II.1.3.1 Sustitución bioisotérica.
En un enunciado un tanto simplista, es razonable el hecho de que compuestos con una
misma actividad biológica, deban poseer también una misma estructura, o al menos
puntos comunes en las partes responsables de la actividad, por lo que la sustitución de
grupos con igual distribución electrónica en la última capa e igual deslocalización del
orbital.
Este método es aplicable a las sulfas antibacterianas (VII), en la cual la similitud
electrónica del grupo sulfamida al grupo carboxilo del ácido p-aminobenzóico (PABA)
(VIII)
provoca la “equivocación” del la bacteria. Ahora bien, no siempre las
sustituciones bioisostéricas generan una equidad en cuanto a actividad. Ejemplos de este
caso lo representan los antibióticos β-lactámicos, en la serie de las penemas (IX),
oxapenemas (X) y carbapenemas (XI), en los que el cambio del átomo de azufre por el
de oxígeno, aumenta la reactividad del anillo β-lactámico y lo combierte en una
molécula “suicida” que inactiva a las β-lactamasas. La sustitución entonces del oxígeno
por el etileno (CH2) disminuye nuevamente esta reactividad, incluso a valores inferiores
que los de las penemas, por lo que genera moléculas menos activas, aunque aún con
utilidades farmacológicas.
En general, el término bioisosterismo se aplica para todo el conjunto de analogías que se
pueden establecer entre dos agrupaciones atómicas, incluyendo tanto elementos
estéricos como electónicos, y en general, todos cuntos sirvan para definir la etructura de
una molécula.
O
O
NHR
S
H2N
C
H2N
O
O
(VII)
S
R
O
(VIII)
N
O
R
COOH
(IX)
O
N
R
COOH
O
(X)
N
COOH
(XI)
II.1.3.2 Modulación Molecular.
Esta técnica consiste en variar al compuesto líder con modificaciones limitadas tanto en
extención (la molécula debe mantener las características iniciales) como en número
(posiciones a modificar). Sin embargo a pesar de restringirse aparentemente las
posibilidades de variación en esta técnica, es muy frecuente encontrar resultados
positivos en su aplicación.
De manera general existen tres tipos diferntes de actuaciones:
•
Modulación: Comprende isomerización, homología, alquilación, ramificación,
desalquilación, saturación, insaturación,cambio en la posición de la insaturación,
desplazamiento de una función, introduccion, sustitución o eliminación de
heteroátomos, introducción de sistemas cíclicos, contracción o extención de ciclos,
S
sustitución de ciclos etc.
N
CH2
N
CH2
CH2
CH2
CH2
CH2
N(CH3)2
N(CH3)2
Imipramina
Promazina
Fig. #2. Cambios de actividad secundaria por extención del ciclo. La imipramina es un antihistamínicoantidepresivo y la promazina un antihistamínico-tranquilizante.
•
Simplificación: En ocaciones, la molécula se rompe, en un intento de encontrar qué
partes o partes son responsables de la actividad biológica que se está estudiando.
Con este fin se diseñan compuestos más sencillos, que contengan aisladamente las
partes mencionadas. Es necesario aclarar que las partes responsables de la actividad
no tienen necesariamente que encontrarse unidas entre sí, sino que pueden
encontrase separadas por una serie de átomos que no forman parte desiciva en la
interacción con el receptor. En estos estudios se necesita de un verdadero
conocimiento de la estructura tridimencional y del comportamiento conformacional
del compuesto.
CH 3
N
N
CH3
HO
HO
OH
O
Morfina
N
Levofenol
CH3
H3C
CH3
N
CH3
C OC2H5
C
OC 2H5
O
O
Meperidina
Metadona
Fig #3. Moléculas obtenidas por la simplificación de la molécula de morfina. Observe la disminución de
la complejedad estructural de la morfina, haciendose poco evidente en la uúltima estructura la relación
con su líder.
•
Unión de elementos activos: Se trata de unir en la molécula restos que han
demostrado ser activos en otras moléculas.
De este tipo de estudio se desprende una evolución en el peso relativo de las diferentes
ciencias implicadas en el diseño de nuevos medicamentos. Se observa en primer lugar
un aumento progresivo en la importancia que los métodos biológicos tienen como
elemento de apoyo y decisión en el planteamiento de las estrategias de síntesis, llegando
a ser auténticas piezas claves en muchos casos. También se deduce la necesidad de
disponer de técnicas cada vez más avanzadas en el campo del análisis intrumental, como
base para la elucidación estructural de los nuevos compuestos. Y siempre como
elemento fundamental, la colaboración estrecha entre investigadores de diferentes
profeciones por la posibilidad de ofrecer puntos de vistas desde diferentes perspectivas.
Los previsibles avances en el campo de la biotecnología, la biología molecular y
ciencias afines, están dando un nuevo enfoque al diseño de nuevos medicamentos. El
método de las variaciones estructurales siempre estará como método de apoyo en el
diseño de estrategias de síntesis, formando parte de los equipos multidisciplinarios
decididos a encontrar los mejores medicamentos.
III. CAPITULO II: DISEÑO DE FARMACOS ASISTIDO POR
COMPUTADORAS
En la actualidad existen numerosos métodos experimentales para determinar la
estructura molecular de una sustancia. Las espectroscopías ultravioleta (UV), infrarroja
(IR), y fundamentalmente la de masas y la de resonancia magética nuclear H1 y de C13 ,
así como las ténicas de difracción de rayos X son las más comunes. No obstante a ello,
el desarrollo alcanzado por la computación y la química computacional ha propiciado la
generación de sistemas que permitan calcular la geometría y la energía molecular. Estos
sistemas son capaces de generar datos con una amplia aplicación en la investigación
experimental, tanto para la interpretación de los resultados obtenidos y la planificación
de futuros, así como para deducir información no asequible experimentalmente.
En principio se pueden considerar tres tipos de métodos de cálculos teóricos: Los
métodos ab initio, los semiempíricos y los de mecánica molecular. La elección de uno u
otro método depende fundamentalmente del tamaño de la molécula y del tiempo
requerido. En el caso de la mecánica molecular se requiere de menos tiempo de cálculo
con respecto a los mecánico-cuánticos, y reproducen los valores experimentales
referentes a geometrías y energías con buena precisión. Su uso por tanto en la actualidad
está destinado al campo de las macromoléculas, en las cuales los métodos de cálculos
mecánico-cuánticos se tornan prohibitivos en cuanto a tiempo respecta.
Los métodos que relacionan la estructura química con la actividad biológica asistidos
por computadoras pueden dividirse en dos grandes categorías: los Métodos QSAR y los
Métodos de Modelación Molecular ó SAR.
III.1 TECNICAS SAR O MODELACION MOLECULAR EN EL DESARROLLO
DE NUEVOS FARMACOS
Los métodos SAR consideran las propiedades de las moléculas en tres dimenciones y
son importantes entre otros, el análisis conformacional, la mecánica-cuántica, los
campos de fuerzas y los gráficos moleculares interactivos. Estos últimos premiten la
representación y la manipulación de las molécula en tres dimensiones, lo que
proporciona una información espacial que es esencial para comparar moléculas y para
estudiar la interacción entre ligandos y receptores macromoleculares. Estos estudios
SAR son utilizados no sólo en el diseño de nuevos fármacos, sino que es aplicable a
otras ramas de la ciencia como la ingenería de proteinas y la química de polímeros.
III.1.1 Búsqueda del farmacóforo.
La búsqueda de los aspectos estructurales indispensables en una serie de moléculas para
lograr la unión al receptor y experimentar una actividad farmacológica se conoce
búsqueda del farmacóforo. Que no es más que el conjunto de grupos químicos, unidos
entre sí o no, que todas las moléculas activas sobre un mismo receptor tienen en común,
y que son esenciales para el reconocimiento por el mismo. En la actualidad existen dos
formas fundamentales de obtener el farmacóforo:
•
Cuando no se conoce la estructura del receptor
•
Cuando se conoce la estructura del receptor
III.1.1.1
Obtención del farmacóforo cuando no se conoce la estructura del
receptor.
En el primer caso, el trabajo está destinado a la búsqueda de las secuencias en la
estructura química de múltiples ligandos que se unan a un mismo receptor. Para esto, se
utilizan una serie de programas que permiten la visualización tridimencional de las
estructuras, a través del cual se pueden realizar rotaciones, traslaciones y operaciones
superposición de estructuras, para que en esta serie con una variación sistemática de la
estructura química de los ligandos, se llege a detectar, por superposición de las
estructuras aquellas regiones de la moléculas que son indispensables para la actividad, y
aquellas que son vulnerables a ser sustituidas con variaciones pequeñas en la afinidad.
Este tipo de estudio necesita de un análisis conformacional riguroso de cada una de las
moléculas a analizar, pues puede ser que para un determinado fármaco, la conformación
activa no sea la más estable termodinámicamente, debido a que la energía libre de
asociación supera generalmente la energía necesaria para que el ligando sufra un cambio
conformacional. Esta limitante, hace que este tipo de estudio sea muy complicado y que
los resultados a obtener no sean siempre satisfactorios, pues cada conformación
energéticamente accesible, presupone una disposición tridimencional diferente de los
grupos candidatos a interaccionar con el receptor.
Adicionalmente, es recomendable calcular el volumen del sitiode unión que está
realmente disponible para ser ocupado por los ligandos. El volumen mínimo lo
proporciona la unión de los volúmenes de todas las moléculas activas en aquellas
conformaciones en las que se logró la superposición de grupos, o sea, en aquellas
conformaciones que sirvieron para proponer el farmacóforo. Una vez conseguido esto se
debe probar con moléculas que posean estos mismos grupos funcionales y sin embargo
tengan muy poca o ninguna afinidad por el receptor. En el supuesto que alguno de ellos,
no obstante, sea capaz de adoptaruna conformación energéticamente razonable, en la
cual los grupos farmacóforos se encuentren correctamente aineado con los compuestos
activos, una alternativa explicación posible seria entonces el análisis del volumen
molecular de la misma. Si este volumen es superior al calculado para el resto de las
moléculas, entonces esta seria una causa razonable de la inactividad del mismo.
Si el conjunto de moléculas estudiadas es lo suficientemente grande, se pueden llegar a
determinar mapas de volumen para diversos receptores, cuya comparación puede
permitir optimizar la actividad de un compuestos con respecto a otro. Esta metodología
sirve para caracterizar la topografía de receptores de los cuales no se conoce su
estructura tridimencional, al permitir determinar tanto el volumen acsequible al
farmacóforo como el volumen abyacente que debe ser excluido de los ligandos. Sobre
esta base, Lloyd en 1986, llegó a proponer una estructura farmacófora común para 14
clases diferentes de fármacos que actúan sobre el SNC.
Una vez detectado el farmacóforo candidato (o su modelo simplificado del receptor con
grupos complementarios adecuados para su interacción) se puede brindar una
explicación pausible del porqué, otras estructuras no evaluadas producían un
determinado efecto secundario relacionado con la actividad en evaluación y sobre todo
permitiría evaluar o diseñar nuevos candidatos que interaccionen con el receptor.
Mediante este tipo de estudio ha servido para la definición del farmacóforo de los
antagonistas anti-5HT3.
Las limitaciones fundamentales de este tipo de estudio estriban en que se discriminan
las posibles uniones alternativas que puedan ocurrir entre el ligando y el receptor, o
incluso la unión en diferentes sitios del propio receptor. Además se ignora las afinidades
relativas perdiendo información sobre la magnitud de la interacción.
III.1.1.2 Obtención del farmacóforo cuando se conoce la estructura del receptor.
El conocimiento de la estructura del receptor puede simplificar el estudio de
identificación del farmacóforo. No obstante, la tarea de determinación de la estructra de
una macromolécula como estas, constituye en la actualidad un evento de gran dificultad.
Los primeros en describir una estructura y una conformación detallada para una
estructura celular fueron los famosos genetistas Watson y Crick en 1953, con sus
trabajos sobre el ADN. La doble hélice del mismo, y la complementaridad que deben
existir entre los pares de nucleótidos hace que el ADN sea un blanco farmacológico de
suma importancia, al que se pueden unir pequeñas y medianas moléculas tanto por
intercalación en su doble hélice como impidiendo la formación de la misma.
Por otro lado, la primera descripción detallada sobre la estructura y conformación de
una proteina data desde 1958, cuando Kendrew caracterizó por cristalografía de rayos
X a la mioglobina de ballena. Teniendo en cuenta de que una gran cantidad de fármacos
realizan su acción por unión a enzimas o receptores peptídicos, es que este tipo de
información estructural sobre las proteinas es de gran utilidad en el diseño de fármacos.
En la actualidad existen bancos de datos de coordenadas atómicas (estructuras
tridimensionales) de macromoléculas biológicas, procedentes de cristalografía de rayos
X y de resonancia magnética nuclear. La mayor base de datos de macromoléculas la
constituye el banco de datos de proteinas (PDB) de Brookhaven que cuenta en la
actualidad con varios miles de estructuras de proteinas y varios cientos de estructuras
de ácidos nucleicos.
Actualmente se ha logrado además, la cristalización de la estructuras de receptores en
su unión con el ligando, de esta forma, es posible conocer cuáles son los grupos del
ligando que interaccionan directamente con el receptor, y cuáles son sus contrapartes en
la proteina.
Con estos resultados es posible conocer la natuarleza de la unión, la flexibilidad del
receptor,
y las interacciones que mantienen al ligando unido al mismo, pudiendo
estimarse por tanto la energía de estabilización de de este complejo, y además, el aporte
por separado, de cada una de las regiones del ligando. Mediante este tipo de estudio, es
posible definirse entonces de manera más precisa y exacta, la naturaleza del
farmacóforo. Además, la lectura en ordenadores de estos datos del complejo fármacoreceptor, permitirá la manipulación del ligando y la inserción de otros ligandos en la
cavidad de unión, pudiendo analizar la naturaleza de la interacción entre estos nuevos
ligandos con el receptor. Esto permite además, la inserción de estructuras construidas o
diseñadas intencionalmente para su ajuste exacto al receptor, siendo fuente interesante
de generación de nuevas entidades farmacológicamente activas.
Otra de las utilidades que brinda el conocimiento de los receptores estriban en la
posibilidad de estudiar la naturaleza de otras estructuras o receptores análogas a él y no
conocidas –en su estructura tridimensional- hasta el momento. Esta técnica se conoce
como modelado de receptores farmacológicos.
Teniendo en cuenta que la mayoría de los datos de proteinas porvienen de cristalografía
de rayos X, la cual se obtiene en estado cristalino, hace que el modelado de proteinas o
de receptores farmacológicos afronte dos problemas básicos:
1. El número de conformaciones a tener en una proteina es enorme. Por ejemplo en un
receptor de tamaño pequeño de 250 aminoácidos posee unos 750 grados de libertad
de ángulos torsionales. Si cada uno de estos ángulos, tiene acseso a sólo 4 valores de
mínimos energéticos el número teórico de conformaciones a adoptar por la proteina
será de 4
750
. Esto no ocurre cuando se dispone de datos de RMN que brinda los
datos de los aspectos dinámicos del movimiento interno de la proteina. Las técnicas
actuales de cristalografía de rayos X a baja resolución han logrado mejorar estos
resultados.
2. La descripción teórica de la interacción entre los átomos de una proteina requiere la
formulación precisa de un potencial o campo de fuerza empírico que contengan
términos para representar los enlaces covalentes, los ángulos de enlaces
dehidrógeno, y las interaacciones electrostáticas y de van deer Waals. En la
actualidad estos programas no son capaces de predecir a partir de una estructura
primaria la estructura tridimencional.
No obstante estas limitaciones, es posible predecir la estructura y propiedades de una
proteina a partir de la estructura tridimensional de otra proteina con un porciento de
analogía razonable. De esta forma se logrará tener la estructura “aproximada” de una
proteina no conocida y por tanto diseñar nuevos ligandos capaces de acoplarse al centro
activo de la misma.
III.1,2 Consideraciones Finales.
El modelado molecular continúa su evolución aplicando una gran variedad de métodos
computacionales al problema de identificar las complejas relaciones existentes entre
estructuras moleculares y actividades biológicas en términos de interacciones entre los
átomos constituyentes. La introducción de nuevos métodos de cálculos y de ordenadores
cada vez más potentes, generarán sin dudas nuevos resultados que culminarán con la
optención de nuevas estructuras cada vez más potentes y selectivas.
III.2 TECNICAS QSAR EN EL DESARROLLO DE NUEVOS FARMACOS.
Las siglas QSAR provienen de la expresión en inglés Quantitative Structure-Activity
Relationship que significa en español Estudios cuantitativos de relación estructuraactividad.
Para realizar un estudio QSAR es necesario antes que todo, que la actividad biológica
del fármaco, producto de su interacción con el receptor, sea una función de las
características estructurales de la molécula. El modelo extratermodinámico de Hansch
brinda una explicación matemática del fenómeno recogida en la siguiente ecuación:
ln A= fh(Xh) + fe(Xe) + fs(Xs) + cte
ecuación
donde A es la actividad y fh(Xh), fe(Xe), fs(Xs) son funciones de índices o parámetros
hidrofóbicos, electrónicos o estéricos respectivamente. El término extratermodinámico
proviene de que las relaciones se describen en términos termodinámicos, aunque no se
deducen de sus leyes.
Las asunciones fundamentales de la metodología extratermodinámica pueden
formalizarse en una serie de puntos, la mayoría de los cuales se extraen de la ecuación
fundamental, y es lo que se conoce como el paradigma de Hansch, que establece que:
1. La actividad biológica es función de la estructura del fármaco.
2. La estructura del fármaco implica ciertas propiedades globalescomo la
hidrofobicidad, carga neta, solubilidad etc... y ciertas propiedades locales como la
distribución de la hidrofobicidad, carga y volumen en determinadas posiciones de la
molécula.
3. Estas propiedades globales y locales pueden sercuantificadas mediante ciertos
parámetros.
4. Siempre existe una función que relaciona los cambios de actividad biológica con los
cambios en las propiedades globales y locales, aunque puede ser que no sea sencilla
ni evidente.
Las funciones estructura-actividad que propone el método extratermodinámico,
constituye un método mediante el cual se pueden buscar los productos más activos entre
un conjunto de candidatos.
La metodología de investigación en el QSAR sigue, independientemente del modelo
que se utilice, pasos comunes que se hallan sintetizados en la figura # 4. El punto de
partida implica en todos los casos la existencia de un cabeza de serie. Este producto,
aunque reviste interés como modelo a desarrollar, tienen propiedades suceptibles a ser
mejoradas en aras de obtener siempre un producto lo más biodisponible posible.
Prototipo o cabeza de seie
Serie de exploración
Identificación
Sustituyentes
Actividad
Biológica
Tratamiento de la muestra
Modelo matemático
Productos óptimos
Cuando se dispone de un prototipo, es preciso diseñar una serie de exploración, que está
constituida por un conjunto de análogos del prototipo, que permietn el establecimiento
de las primeras relaciones estructura-actividad. Los miembros de la serie de exploración
han de ser sintetizados y evaluados en cuanto a actividad biológica respecta.
Los miembros de la serie de exploración están constituidos por un nucleo común, y
unos sustituyentes o fragmentos variables, que son característico de cada producto de la
serie. Dichos sustituyentes variables han de ser identificados por descriptores, que serán
utilizados como variables independientes (Xi) en el modelo. Los valores de actividad
biológica (A) –expresados regularmente en forma logaritmica- se utilizan como variable
dependiente.
Es de particular importancia la calidad de la serie de exploración a emplear, pues la
calidad de las predicciones van a estar condicionadas en gran medida al diseño óptimo
de esta serie, para así tratar de evitar las fallas en la predicción.
III.2.1 Elección de la serie
La calidad de una serie de exploración viene definida principalmente por dos aspectos:
1. Disimilaridad de la serie. Los productos de la serie deben ser, respecto a los
parámetros elegidos, diferentes entre sí. No tiene sentido intentar estudiar cómo
influye una característica sobre la actividad si sólo se estudian productos similares
respecto a esta característica. Además, puesto que la serie debe ser una muestra del
espacio experimental, el rango de variación de las características dentro de dicha
serie debe ser equiparable al que existe en el espacio experimental.
2. Ortogonalidad de la serie. Los productos deben escogerse de tal forma que la
variación en las características se produsca de manera independiente. Si la variación
de una propiedad X1 viene siempre acompañada de la variación en otra propiedad
X2, no es posible conocer si el cambio de actividad de unos a otros productos se
debe al cambio en la propiedad X1 ó en la propiedad X2. En estas situaciones se dice
que las propiedades X1 y X2 se encuentran correlacionadas en la serie. Una serie en
a cual las correlaciones entre los parámetros son mínimas se dice que la serie es
ortogonal.
Una vez definida y evaluada la actividad biológica de la serie de experimentación se
procede al tratamiento de la muestra de la cual se obtiene un modelo matemático que
permitirá predecir uno o varios compuestos a los que les serán evaluadas sus actividades
biológicas e incorporados, en caso de no presentar una actividad óptima, a la serie de
exploración. Este proceso se repetirá el número de veces necesarias hasta lograr la
eficacia esperada para el fármaco a obtener.
III.2.2 Tipos de estudios QSAR.
En la actualidad existen diferentes técnicas por las que se puede desarrollar un estudio
QSAR en dependencia del tipo de tratamiento matemático que se le de a la muestra y se
pueden clasificar en:
•
QSAR tradicional
•
QSAR por redes de neuronas
•
QSAR tridimensional
III.2.2.1 QSAR tradicional.
El método tradicional incluye el tratamiento estadístico de los datos por métodos
multivariados, que incluye el
análisis de regresión, análisis cluster y análisis por
componentes principales. En ellos se valora la actividad biológica como variable
dependiente del conjunto de descriptores moleculares que constituyen las variables
independientes.
Como resultado de esto se obtienen modelos que describen la actividad biológica como
una determinada función matemática de los descriptores moleculares, bien sean estos
estructurales o químico-físicos.
El método más familiar es la regresión, en la que se obtendrá la ecuación de una recta,
un plano, o de un hiperplano, según sea el número de variables independientes incluida
en la expresión. En el caso del análisis cluster, los datos y por lo tanto los compuestos
de la muestra, se agruparán por la semejanza entre ellos según los valores de similitud
que se le exijan.
El análisis de componentes principales tiene como principal objetivo la reducción de
variables. A diferencia de lo que pudieramos creer, en la práctica de la modelación
estructural el número de descriptores es muy grande y la selección de los que mejor
representan a la muestra en la actividad biológica estudiada es dificil de definir en
ocasiones. En el análisis por componentes principales, los datos se combinan en una
línea recta. Esta línea recta es rotada de diferentes formas y en cada una de ellas se
establecen los coeficientes de cada variable. Por lo tanto, en dependencia de la rotación
que se haga, así variarán los valores de los coeficientes de cada descriptor estructural o
químico-físico y por ende su peso o influencia en este componente. Cada componente
(resultado del ajuste a un modelo lineal de todas las variables en las rotaciones
efectuadas) se utiliza como una nueva variable. Con estas nuevas variables se puede
realizar un análisis de regresión y determinar cual es la componente más importante o
de mayor calidad para describir la muestra. Es práctica común emplear solamente
aquellas que en su conjunto dan el mayor valor de varianza explicada. El problema
entonces para el especialista consiste en poder asignar a esas componentes una
significación químico-física o estructural. Recordemos que cada una de ellas es el
resultado de la combinación lineal de todos los descriptores.
El análisis de regresión múlitiple, como se planteó anteriormente, es el más utilizado
dentro del QSAR tradicional. En el, una vez de establecidos los conjuntos de valores de
las variables independientes Xi y la actividad biológica A, se obtiene un modelo en
forma de ecuación de una recta (ecuación 1), la cual describe la dependencia de la
actividad (A) en función del conjunto de descriptores (Xi) así como la magnitud de las
contribuciones de cada uno de ellos.
A=f(Xi) + cte.
Ecuación 1.
El modelo así obtenido ha de ser analizado en función de su calidad estadística, para
poder evaluar su capacidad de predicción. Cuanto mayor calidad estadística tenga el
modelo, más confiables y exactas serán las predicciones a realizar.
La calidad estadística de un modelo se evalúa por diferentes estadígrafos. Los más
comúnmente aceptados son el coeficiente de regresión r, el valor F de Fischer y la
desviación estándar s. Cuanto más tienda a la unidad el valor de r mejor ajuste tendrán
los datos al modelo. El valor F correlaciona la varianza explicada (r2) por el número de
grados de libertad, con la varianza no explicada (1- r2) por el número de variables del
modelo. Cuanto más alto es el porcentaje de varianza explicada por el modelo mayor
será el valor de F, mientras que la existencia de variables con baja contribución a la
explicación de la varianza, tenderán a disminuir dicho valor, que tiende a infinito en los
mejores modelos. La desviación estándar s depende de la varianza no explicada y de los
grados de libertad del modelo y es una medida de cuanto se alejan los valores predichos
por el modelo de la línea, plano o hiperplano. La tendencia a cero de este valor pudiera
presuponer mayor calidad en la predicción. Sin embargo, esto puede conducir a modelos
sobrepredictivos en los cuales se refleje exactamente el comportamiento de la muestra
pero que no sea posible utilizarlo para la extrapolación de valores en el caso de la
predicción de nuevos compuestos. Un valor de s es válido cuando está en el mismo
orden de magnitud del error experimental de las mediciones de la variable dependiente
(la actividad biológica).
En la ecuación 2 se reflejan los datos obtenidos en la evaluación bactericida de un grupo
de alcoholes obtenidas por nuestro grupo de investigación.
log MIC=31.88(±
±6.95)**-2.10(±
±0.17)P1ΩQC***+2.16(±
±0.62)EHOMO**
n=12
r=0.97
F=74.22
s=0.44
Ecuación 2
Como se puede observar en esta ecuación, la actividad bactericida, expresada como
función logaritmica de la concentración mínima inhibitoria (log MIC), es una función
de dos índices que describen las características de estructurales de la muestra 12
alcoholes evaluada (n=12). Según establece esta ecuación, la actividad aumentaría con
un decrecimiento en los valores del índice P1ΩQC, observe el signo negativo delante del
valor del índice, el cual sólo admite por definición valores positivos. Un aumento de la
actividad también se lograría incrementando el valor de la energía Homo (EHOMO),
observe el signo positivo. La constante o intercepto está reflejada en el valor
31.88(±
±6.95). De manera general, según lo establece el modelo, la evaluación de nuevos
alcoholes con índices bajos de
P1
ΩQC y
elevados valores de EHOMO generarán
compuestos con mayor poder bactericida.
Si analizamos la calidad estadística del modelo observaremos que el mismo, posee un
alto coeficiente de correlación r=0.97 un valor de bajo de desviación estándar s=0.44 y
un elevado valor de F, por lo que el modelo debe tener una alta capacidad predictiva.
Consideraciones adicionales para el establecimiento de una ecuación con calidad se
tienen en función del número de variables independientes a incluir en el modelo. Estas
variables, deben estar limitadas por el número de compuestos que forman parte de la
serie de exploración, de forma tal que, la relación existente entre ellos sea de una
variable por cada 5 o 6 compuestos en la serie de exploración. La utilización excesiva
de estas variables en una ecuación de regresión puede conducir a reproducciones de la
muestra de entrenamiento eliminándole el valor predictivo al modelo. Es necesario
señalar además que, mientras mayor número de variables se incluyan en la ecuación,
mayor será el número de parámetros a variar en el compuesto a obtener, hecho que se
puede tornar difícil en la práctica sintética.
III.2.2.2 QSAR por redes de neuronas.
III.2.2.3 QSAR tridimencional.
El QSAR tridimencional es una técnica moderna que combina los aspectos relacionados
en el estudio QSAR clásico con los de los estudios SAR o de modelado molecular. En la
representación SAR de los análogos activos, elección se limita a si es activo o inactivo.
En la práctica, sin embargo, los resultados son representados en un amplio espectro
numérico que reflejan las diferencias cuantitativas entre la unión de uno u otro ligando.
Por otro lado el QSAR clásico aborda estos temas de magnitudes en cuanto a las
afinidades, pero en estos es imposible considerar la diversidad química que puede
interaccionar con el receptor, ya que en este tipo de análisis el establecimiento de una
única serie con analogía estructural es indispensable. La necesidad de lograr una
interface entre ambos tipos de trabajos necesitó el desarrollo de un nuevo análisis
conceptual y computacional.
El primer logro en este sentido lo alcanzaron Cramer y colaboradores en 1988 al
desarrolar el análisis comparativo de campos moleculares (CoMFA). La premisa básica
de este método, es que “el adecuado muestreo de los campos eléctricos y electrostáticos
alrededor de un conjunto de moléculas o fármacos, puede proporcionar toda la
información necesaria para comprender las actividades biológicas”.
Para ser esto posible se precisa del cálculo de los campos de fuerzas por mecánica
molecular, que sólo consideran las fuerzas estéricas y eslectrostáticas. Para lograr esto
se superponen todas las moléculas en las conformaciones presumiblemente activas y se
calculan las energías de interacción estéricas (van der Waals) y las electrostáticas
(Coulomb) entre cada una de las moléculas de interés. Posteriormente se recurre a la
técnica estadística de los mínimos cuadrados parciales y se extraen las variables que
describen la varianza del conjunto de datos, los cuales se someten posteriormente a una
técnica de validación crusada. El análisis de regresión lineal múltiple no es aplicable en
esta técnica, pues, el número de variables generada en este tipo de estudios es muy
elevado.
De manera general los pasos a seguir son los siguientes:
1. Postular la conformación activa para el metabolito endógeno o para el fármaco más
activo.
2. Alinear el resto de las moléculas y establecer a su alrededor una malla
tridimensional como una caja de puntos en el espacio potencial del receptor.
3. Calcular el campo que cada molécula ejercería sobre un átomo sonda situado en
cada punto de la malla.
4. Determinar una expresión lineal mediante la técnica de mínimos cuadrados parciales
que podría consistir en un conjunto mínimo de puntos de la malla necesarios para
distinguir los compuestos sometidos a exámen de acuerdo a las actividades
determinadas experimentalmente.
5. Realizar la validación cruzada del modelo (crossvalidation)
6. Ajustar el alineamiento de los compuestos peor predichos y repetir los pasos
anteriores hasta encontrar la mayor alineación posible.
Estos resultados del QSAR-3D producido por miles de términos (en el QSAR
tradicional el número de términos estaba reducido en función del tamaño de la muestra),
se pueden visualizar gráficamente en formas de mapas de contorno, pudiendo colorearse
de diversos colores para resaltar la dirección y magnitud de la interacción. De tal
manera las regiones coloreadas aparecerán en aquellas regiones en donde las diferencias
electrónicas y estéricas produscan una mayor variación de la actividad.
III.2.3 Validación de modelos.
Independientemente del tipo de análisis QSAR empleado el resultado final va a ser un
modelo matemático. Para estar completamente seguros de que el modelo obtenido no
resulta de un ordenamiento a azar de los datos es común, según las normativas
internacionales, verificar la calidad del mismo.
El método de regresión lineal múltiple proporciona los valores para los coeficientes que
hacen que la función matemática propuesta explique al máximo como varían las
actividades. Independientemente de esto siempre quedará una varianza no explicada por
el modelo -los residuales-, que corresponden a los errores en las medidas de los datos de
actividad y a posibles efectos no incluidos en él -parámetros no considerados-. Mientras
mayor sea la diferencia entre la varianza explicada sobre la no explicada mayor será la
utilidad del modelo. Esto puede contrastarse con un análisis de varianza y un test de F;
cuando el modelo no es satisfactrio se obtiene la no significación en el test.
Otro problema es que el modelo no sea predictivo, es decir que la función propuesta no
se cumpla para productos no incluidos en la serie de exploración. Esta problemática
suele solucionarse realizando una validación cruzada (crossvalidation) con el
procedimiento conocido como leave-one-out al modelo, generando los valores
promedios de los coeficientes de correlación (r2 ó rcross) y de las desviaciones estándar
obtenidos (Spress). Estos valores brindan una idea de la estabilidad estadística del
modelo. Otra forma de medir o evaluar la calidad de la ecuación obtenida consiste en
determinar la robustes (q2) del mismo, y el mismo se calcula a tarvés de la ecuación
siguiente:
q2 = (SD-PRESS)/SD
ecuación
donde SD es la sumatoria al cuadrado de las desviaciones estándares de los residuales y
PRESS es la sumatoria al cuadrado de los residuales. Este valor de q2 derivado de la
validación cruzada no es más que la habilidad del modelo para realizar la predicción.
En un modelo donde rcross no disminuya en más de un 20% con respecto al coeficiente
de correlación, puede ser considerado como un modelo predictivo, lo mismo ocurre
cuando se obtiene un valor de q2> 0.5.
Para que el estudio de relaciones estructura-actividad se concluya con éxito debe
obtenerse un modelo significativo y predictivo. Aún así, la validez del modelo estrá
siempre limitada al rango de parámetros explorados por la serie de exploración, fuera
del cual nunca debe considerarse válido. De hecho, esta es la principal limitación a la
hora de buscar el óptimo de actividad predicho por un modelo.
Cuando el modelo contiene sólo términos lineales, basta con buscar sustituciones que
maximicen los términos con coeficientes positivos y minimicen los términos con
coeficientes negativos. Debe tenerse en cuenta, que si se rebasan los valores máximos y
mínimos de la serie de exploración, los resultados a obtener en los nuevos compuestos
no tienen porqué responder al modelo, pues esos valores no fueron explorados y por
tanto incluidos en el modelo. Un ejemplo de esto puede ser un modelo en el cual, con un
incremento del coeficiente de partición se aumente la actividad; esto no implica que el
con un incremento hasta el infinito de este coeficiente se aumentará ilimitadamente la
actividad pues, a valores X de este parámetro puede resultar una incidencia negativa con
respecto a la propia actividad, pues al cambiar lógicamente la distribución en el
organismo del fármaco este ya no se encontrará en el compartimento adecuado o sufrirá
cambios en el metabolismo etc... Esto evidentemente, no pudo ser recogido por el
modelo, pues en él este extremo de valores no fué considerado.
III.2.4 Descriptores moleculares o Indices.
Bajo este término se agrupan una serie de parámetros que a través de valores numéricos
representan una información estructural, electrónica, estérica, así como una determinada
propiedad químico-física de la molécula en estudio. Desde este punto de vista estos
parámetros se clasifican en:
•
Indices basados en propiedades químico-físicas: Son aquellos, como lo dice su
nombre, que derivan de la determinación experimental de una determinada
propiedad químico-física de la molécula.
•
Indices mecánico-cuánticos: Son aquellos que se determinan por cálculos
mecanicocuánticos.
•
Indices topológicos y topográficos: Son aquellos que se determinan a partir del grafo
químico, o sea de la estructura química.
III.2.4.1 Indices basados en propiedades químico-físicas.
Las propiedades químico-físicas en una molécula pueden reflejar la interación de dicha
molécula con el receptor. Entre los parámetros químico-físicos más empleados en el
QSAR se encuantran:
Símbolo
Descripción
Tipo
Referencia
Log P
Logaritmo del coeficiente de partición
Hidrofóbico
Hansch, 1979
MR
Refractividad Molar Molecular
Estérico
Hansch, 1973
pKa
Constante de ionización
Electrónico
Martin, 1978
µ
Momento dipolar
Electrónico
Lien, 1982
Todos los parámetros anteriormente reflejados representan propiedades globales de la
molécula. Este tipo de parámetro tienen el inconveniente de que esta propiedad es
necesario medirla, y muchas veces esto presupone un trabajo laborioso; aunque muchos
de estos índices pueden ser determinados por métodos computacionales con
aproximaciones bastantes exaxtas a la realidad experimental.
Existen además índices fragmentales derivados de la parametrización del índice global
en un conjunto de derivados de un cabeza de serie, en la cual sólo varían los
sustituyentes en una o varias posiciones de éste. De tal manera, el índice fragmental se
calcula por la diferencia existente entre el índice global de la molécula cabeza de serie y
el índice global para la molécula experimentada, el valor así obtenido representa la
contribución del sustituyente sobre el núcleo básico.
De este modo pueden caractirizarse propiedades locales de la molécula, pero también
propiedades globales, tomando en consideración el caracter aditivo de cada uno de los
valores fragmentales que constituyen la molécula final. De tal modo que se hace
innecesaria la síntesis de previa de los productos a caracterizar. Entre estas constantes
fragmentarias las más utilizadas son:
Símbolo
Descripción
Tipo
Referencia
π
Constante hidrofóbica del sustituyente
Hidrofóbico Fuyita, 1964
σ
Constante de Hammett
Electrónico
Hammett, 1940
Es
Parámetro estérico de Taft
Estérico
Taft, 1956
MR
Refractividad Molar de sustituyente
Estérico
Hansch, 1973
F,R
Constantes del efecto inductivo y resonante
Electrónico
Swain, 1968
III.2.4.2 Índices mecánico-quánticos.
En cualquier estudio QSAR, la obtención de un coeficiente de correlación significante
está condicionada en gran medida a la utilización de descriptores que logren reproducir
el fenómeno estudiado, esto independendientemente del origen del mismo.
El desarrollo reciente de la computación ha hecho posible el cálculo mecánico-cuántico
de las estructuras químicas. Estos calculos químicos-cuánticos ha generado un creciente
interés en la obtención de índices que en un principio, puedan expresar todas las
propiedades electrónicas y geométricas de las moléculas, así como, sus interacciones. Es
precisamente, la química cuántica, la que brinda una información electrónica más
detallada, incluso mayor que métodos empíricos.
El tratamiento cúantico de la materia esta basada en el principio de insertidumbre de
Heisenberg, según el cual no es posible conocer simultáneamente la posición y el
momeno de una partícula. Esto precisa de abordar el problema desde el punto de vista
estadístico, por la necesidad de poder encontrar una partícula en un lugar determinado y
en un momento dado.
Otro concepto fundamental de la mecánica cuántica es que todas las cantidades
dinámicas asociadas a cada partícula están cuantificadas. La energía de una partícula
tiene un valor discreto, el cual es múltiplo de una energía básica, la constante de Plank.
La ecuación fundamental es la de Schrödinger. La ecuación de Schrödinger para el
átomo de hidrógeno es:
∇2 ψ - (8π2m/h2) (E+ Z e2/r) ψ = 0
donde ∇2 es el operador diferencial, ψ es la función de onda, h es la constante de Plank,
y r la distancia entre el electrón y el núcleo.
Para los átomos polielectrónicos, la ecuación de Schrödinger, no puede ser resuelta,
pues no es posible la separación de las variables. Para ello es preciso acudir a la
expresión de Hartree, que considera cada electrón independientemente, moviéndose en
el campo del resto de los electrones y de los núcleos. Teniendo en cuanta el principio de
exclusión Pauli, según el cual no pueden existir más de dos electrones en una misma
órbita, con dos espines diferentes, se obtiene la expresión de Hartree-Fock; la cual
expresada en forma analítica, no matricial, origina la ecuación de Roothaan.
Existen dos métodos principales de cálculos mecánico-cuántico, en dependencia de las
aproximaciones que se realizan:
1. Los métodos ab initio
2. Los métodos semienpíricos
Los métodos ab initio con el modelo Hamiltoniano nos brindan una representación
completa de todas las interacciones no relativisticas entre el núcleo y los electrones de
la molécula, soluciones no disponibles en la ecuación de Schrödinger. La utilización de
este algoritmo de cálculo hace que los métodos ab initio necesiten un elevado tiempo de
cómputo, que va a ser proporcional al número de electrones de la molécula,
dependiendo por lo tanto de la naturaleza de los átomos y del tamaño de la misma. Sirva
como ejemplo la molécula de metano, para la cual es necesario resolver un total de 1080
integrales, 1035 de ellas dielectrónicas.
La gran mayoría de los cálculos ab initio utilizan la aproximación del orbital definida en
el método de Hartree-Fock. Ellos incluyen interacciones configuracionales (CI), campos
autoconsistentes multiconfiguracionales (MC SCF), la teoría de correlación por pares de
electrones (CPMET), y la teoría de perturbación.
Una alternativa de cálculo mecánico-cuántico lo ofrecen los métodos semiempíricos.
Estos métodos han sido desarrollados dentro de la teoría de los orbitales moleculares
(SCF MO), pero sobre la base de simplificaciones y aproximaciones introducidas el el
algoritmo de cálculo que hacen que los tiempos de cálculos en ordenadores normales se
vea dramáticamente reducido con respecto a los métodos ab initio permitiendo una
mayor utilización de los mismos.
En tal sentido un método semiempírico debe cumplir los siguientes requisitos:
1. Que sea lo suficientemente simple para poder calcular moléculas relativamente
grandes.
2. Que mantenga las principales interacciones intermoleculares: atracción por los
núcleos y repulción entre los electrones.
3. Que los resultados del cálculo puedan ser interpretados , permitiendo la construcción
de métodos cualitativos adecuados.
4. Que compensen por parametrización las insuficiencias del método Hartree-Fock.
La principal aproximación que realizan los métodos semiempíricos es que ellos
negliguen las integrales de solapamiento, teniendo solamente en cuenta los electrones de
valencia de cada uno de los átomos integrantes de la molécula, considerando los
electrones internos como parte del núcleo no polarizable. Así, mientras el método
semiempírico NDDO calcula un total de 741 integrales para el propano, un método ab
initio deberá de resolver un gran total de 38 226 integrales para la misma molécula. Esto
en tiempo de cálculo se traduciría en que, para realizarlos en un ordenador con
capacidad de un millón de operaciones por minuto, el cálculo semiempírico duraría no
más de 5 minutos versus un total de 5 horas para el ab initio en la propia molécula de
propano.
En principio,cualquier método semiempírico puede ser utilizado para el cálculo de los
descriptores mecánico-cuánticos. El primer método aplicado fué el de Hückel en 1931,
luego le siguió el PPP en 1935. A partir de este momento se han ido creando nuevos
métodos de cálculos, cada uno de los cuales se va haciendo más complejo por el
desarrollo lógico que va experimentando la computación, permitiendo realizar cada vez
más, operaciones complejas en un menor intervalo de tiempo.
Los más populares en orden cronológicos son los siguientes:
•
La teoría de Hückel extendida (EHT), la cual es una extención de la aproximación
de electrones-π de Hückel que trata a todos los electrones de valencia de la
molécula. Las integrales de solapamiento son calculadas por las funciones tipo
Slater, mientras que las repulsiones elctrónicas y nucleares son obviadas. Este
método ha sido preferentemente utilizado para describir cualitativamente la
estructura electrónica de sistemas moleculares, no obstante, al obviar importantes
interacciones electrónicas la distribución de cargas calculadas son irreales.
•
El método C.N.D.O. (complete neglect differential overlap) es el más simple de los
métodos semiempíricos. En el se obvian el solapamiento de orbitales atómicos, tanto
diatómicos como el del átomo simple, creando una aproximación incorrecta en el
sentido de que no existe justificación para no incluir el solapamiento diferencial de
un átomo simple.
•
Los métodos I.N.D.O (intermediate neglect differential overlap) y M.I.N.D.O
(modified INDO) se desarrollan bajo el compromiso en el cual el solapamiento de
un centro es retenido en las integrales de un centro. Estos métodos representan una
aproximación más real a la práctica que los anteriores, pero todavía existe una
reducción sustancial de las repulsiones electrónicas, utilizando un mínimo set de
electrones de valencia y negligiendo todas las integrales que implican el
solapamiento de orbitales atómicos, exeptos las integrales de resonancia
monocéntricas y las integrales monocéntricas de canje. En estos métodos y el
metodo CNDO, las integrales de repulsión entre los orbitales atómicos del átomo A
y cualquiera del átomo B, forman un set igual, tanto si son del tipo s, p, σ ó π.
•
Los métodos M.N.D.O (modified neglect of diatomic overlap), el AM1 (Austin
model 1) y el PM3 (parametric model 3) están basados en la correcta inclusión del
solapamiento de un centro, negando u obviando solamente el solapamiento
diferencial diatómico. A diferencia de los métodos CNDO, INDO y MINDO estos
métodos consideran un número adicional de integrales bicéntricas, así para cada par
de átomos no similares es necesario calcular 22 integrales a diferencia de una única
integral a calcular en los métodos CNDO, INDO y MINDO. Según Dewar, autor de
los métodos MNDO y AM1, el método MNDO no describe correctamente la energía
de los enlaces por puentes de hidrógeno y la de los aniniones, así como sobrestima
las repulsiones electrónicas. Estas dificultades son mejoradas por el método AM1
sin que ello incremente el tiempo de cómputo. Posteriormente Stewart, uno de los
colaboradores de Dewar realizó una reparametrización del método AM1 generando
así el PM3. No obstante a ello no se ha logrado demostrar la superioridad de uno
con respecto al otro (AM1 y PM3), por lo que en la literatura actual es común
encontrarse trabajos que utilizan uno u otro método sin que esto atente contra la
calidad de los resultados.
Por los motivos anteriormente descritos, los métodos semiempíricos han tenido un
amplio uso en el diseño de fármacos, toda vez que son métodos que reproducen en gran
medida las propiedades reales de las moléculas, invertiendo para ello, poco tiempo de
cálculo; a diferencia de los métodos ab initio en los que el tiempo de cálculo resulta en
realidad una gran limitante. No obstante a ello es necesario resaltar que los cálculos ab
initio son los que reproducen con mayor fiabilidad las características estructurales de las
moléculas, divergiendo en no más de un 2% con respecto a los datos experimentales.
Para un estudio QSAR lo importante a obtener de estos cálculos químico-cuánticos son
índices que me permitan describir las características electrónicas y energéticas de las
moléculas. Debido a la amplia información que pueden contener estos descriptores
teóricos, su utilización en estudios QSAR puede tener dos grandes ventajas:
1. Los compuestos y sus varios fragmentos y sustituyentes pueden ser directamente
caracterizados sobre la bse exclusiva de su estructura molecular.
2. El mecanismo de acción propuesto para los fármacos a estudiar pueden estar
directamente relacionado con la reactividad química calculada.
Consecuentemente, los modelos QSAR obtenidos con la utilización de índices o
descriptores moleculares de esta naturaleza, incluirán información de la naturaleza de
las fuerzas intermoleculares envueltas en la acción del o de los fármacos.
A continuación se relacionan los principales índice mecanico-cuánticos empleados en
los estudios QSAR:
Definición
Qa
Qmin, Qmax
qE,A, qN,A
qA,σ, qA,π
εHOMO εLUMO
SE,A, SN,A
α
µ
ET
∆H0f
Nombre
Carga neta sobre el átomo A
Cargas netas más negativa y positiva de la molécula
Cargas electrónicas nucleofílicas y electrofílicas,
calculadas a partir delos orbitales ocupados y
desocupados respectivamente.
Densidades electrónicas σ y π del átomo A
Energías HOMO y LUMO. Significan las energías
del último orbital ocupado y la del primer orbital sin
ocupar respectivamente.
Superdeslocalizabilidad electrofílica y nucleofílica.
Polarizabilidad Molecular
Momento dipolo molecular
Energía total de la molécula
Calor de formación
Cargas Atómicas: De acuerdo a la teoría química clásica, todas las interacciones
químicas son por naturaleza o electrostáticas (polares) o orbitalarias (covalentes). Es
una evidencia práctica, que las densidades electrónicas locales o cargas, son importantes
en muchas reacciones químicas y en muchas propiedades químico-físicas de las
moléculas. Así, los descriptores basados en las cargas han sido extensamente empleados
como índices de reactividad química y como medidores de las interacciones
intermoleculares débiles tal y como ocurre en las interacciones iónicas entre el fármaco
y el receptor.
Las cargas parciales sobre los átomos han sido utilizadas como índices de reactividad
química estacionarios. Las densidades electrónicas σ y π por su parte, caracterizan la
posible orientación de las interacciones químicas, por lo que son consideradas índices
direccionales de reactividad. Por el contrario, las densidades electrónicas y las cargas
netas sobre los átomos son considerados índices de reactividad no direccionales.
Energías de los orbitales moleculares: Las energías HOMO y LUMO son los
descriptores químico-cuánticos más populares. Se ha demostrado que estos orbitales
juegan un papel muy importante en muchas de las reacciones químicas y en la
formación de los complejos de transferencia de cargas. De acuerdo con la teoría de los
orbitales moleculares fronteras (FMO) de la reactividad química, la formación deun
estado de transición se debe a la interacción entre los orbitales fronteras HOMO y
LUMO de las especies químicas reactantes.
La energía HOMO está directamente relacionada con el potencial de ionización, y
caracteriza la suceptibilidad de la molécula a ser atacada por electrófilos. La energía
LUMO está directamente relacionada con la afinidad electrónica y caracteriza la
afinidad de la molécula a ser atacada por nucleófilos.
Superdeslocalizabilidades. La superdeslocalizabilidad es un índice de reactividad de
los orbitales ocupados y no ocupados y está relacionada con la contribución hecha por el
átomo, a la estabilización en la energía de formación de un complejo de transferencia de
carga con una segunda molécula, o la capacidad del reactante de establecer enlaces a
través de tranferencia de cargas. La distinción hecha entre nucleofílica y electrofílica
están relacionadas con la naturaleza de la superdeslocalizabilidad, si esta es aceptora o
donora respectivamente. Las Superdeslocalizabilidades son conocidas también como
índices de reactividad dinámica. A diferencia de los índices estáticos (cargas), que
describen moléculas aisladas en su estado base, los índices dinámicos de reactividad se
refieren a los estados transicionales en las reacciones.
Polarizabilidad Molecular: Se refiere a la polarización que puede sufrir una molécula
por un campo eléctrico externo, cuya propiedad más significativa es su relación con el
tamaño molecular o el volumen molar. Se ha demostrado que la polarizabilidad guarda
relación conel coeficiente de partición; de ahí su aplicabilidad en estudios derelación
estructura-actividad.
Momento dipolo: La polaridad de una molécula guarda una estrecha relación con varias
porpiedades físico-químicas. El momento dipolo de la molécula es un reflejo de la
polaridad global de la molécula.
Energías: Las energías totales y los calores de formación de las moléculas son un
reflejo de la estabilidad de las mismas, por lo que el empleo de estos índices puede
conducir a la explicación del fenómeno estudiado.
III.2.4.3 Índices topológicos y topográficos.
La topología es aquella parte del álgebra que estudia las posiciones e interconexiones
entre los elementos de un conjunto. Esta rama de la ciencia, aplicada a la estructura
química ha dado origen a una disciplina llamada “Topología Molecular” que analiza
presisamente las posiciones y las interconecciones entre los atómos de una molécula
dada. De esta forma se lograría caracterizar estructuralmente los compuestos.
Para definir dichos índices se representan por puntos los átomos de la moécula
(excluyendo a los de hidrógeno) y por rayas o segmentos los enlaces. De tal manera se
obtiene el grafo de la molécula o grafo químico como comunmente se conoce. Con
posterioridad se construye la matriz topológica cuyos elementos toman el valor de uno o
cero en dependencia de si el átomo “i” está enlazado o no al átoma “j”. Así se genera
una matriz cuadrada de “n” filas por “n” columnas, siendo “n” el número de número de
vértices del grafo o lo que es lo mismo el número de átomos. El resultado del cálculo
genera un valor numérico que representa o describe la estructura química de la
molécula, por lo que este tipo de descriptores tienen una gran utilidad en los estudios
QSAR.
De esta forma se pueden generar matrices de abyacencia y matrices de distancias entre
vértices. Las matrices de abyacencia describen la unión o no entre átomos y la de
distancias el números de átomos existentes entre un atómo “X” y otro no enlazado a él.
Sirva como ejemplo ilustrativo de la construcción de estas matrices la molécula de
isopentano.
V2
e1
V1
e2
V3
V5
e3
e4
V4
0
1

Α = 0

0
0
1 0 0 0
0 1 0 0

1 0 1 1

0 1 0 0
0 1 0 0
0
1

D = 2

3
 3
1 2 3 3
0 1 2 2

1 0 1 1

2 1 0 2
2 1 2 0
Matriz de adyacencia
Matriz de distancia
entre vértices
entre vértices
Observe que para la matriz de abyacencia del átomo o vértice 1 (V1) le corresponden
valores en la matriz, de 0 para los átomos 1, 3, 4 y 5 y valor de 1 para el vértice 2 (V2),
pues es solamente con él que se encuentra enlazado. Así mismo para V3
le
corresponden valores en la matriz de 0 para los vértices 1 y 3 y valores de 1 para los
átomos 2, 4, 5. De esta forma se obtiene un valor numérico que representa o describe la
estructura molecular.
En la matriz de distancia, a V1 se le asignan valores de 0, 1, 2, 3 y 3, pues ésta es el
número de átomos mínimos que lo separan de los átomos 1, 2, 3, 4 y 5. Esta es otra
forma de describir el grafo químico a través de un valor numérico, pero utilizando en
este caso las distancias mínimas que separan un átomo de otro.
El grafo molecular puede ser subdividido en subgrafos en dependencia del número de
ejes interconectados al vértice. Estos subgrafos se clasifican según su orden (m) y su
tipo (t).
El orden de un grafo no es más que el número de ejes o enlaces que contiene el vértice,
considerando como simples a los enlaces múltiples. Los tipos de los subgrafos por otro
lado se clasifican en cuatro tipos:
♦ Tipo Camino (p), que son aquellos subgrafos que la valencia (número de enlaces) de
sus vértices son menores o iguales que dos. Téngase en cuenta que los átomos de
hidrógeno no se consideran en el grafo molecular.
♦ Tipo Cluster (c), constituido por aquellos subgrafos que tienen al menos algún
vértice con valencia 3 o 4, pero ninguno con valencia de dos.
♦ Tipo Camino-cluster (pc) Son los subgrafos que incluyen vértices con valencias de
dos, además de algunos con valencia de 3 o 4.
Estos índices de conectividad mχt correspondena en cada caso a la suma de todos los
subgrafos de tipo t y de orden m., y están relacionados con la ecuación 3:
m
mχ =
Sj
t ∑
j =1
n
m
Ecuación 3
Donde nm es el número de subgrafos tipo t y de orden m.
Los términos mSj se definen como el inverso de la raiz cuadrada del producto de las
valencias de los vértices integrantes del subgrafo, Donde j define un subgrafo en
particular.
Sirva como ejemplos de subgrafos la molécula de isopentano:
Tipo (t)
Orden (m)
1
2
3
4
Camino
Cluster
CaminoCluster
Como bien se puede observar en la figuar anterior, la molécula de isopentano esta
integrada por cuatro caminos de orden 1 y 2, 2 caminos de ordenes 3, y un cluster de
orden 3 y un camino cluster de orden 4. De tal forma, el subgrafo camino de orden 1
estará formado por la sumatoria de los valores de los cuatro caminos obtenidos para la
molécula en cuestión.
De manera general, es necesario señalar que el el trabajo QSAR se utilizan el subgrafo
camino desde orden 1 hasta orden 6, los cluster desde orden 3 hasta 6 y los caminos
cluster desde el orden 4 hasta el orden 6.
La definición de algunos de los índices obtenidos por esta metodología aparecen
recogidos en la tabla siguiente:
ÍNDICE
DEFINICIÓN
χ = ∑ [δ (v )δ (v )]
Conectividad Molecular (Randic)
m
r =1
i
− 1/ 2
j
[
1χ =
∑ δ (vi )δ (v j )Κ δ (v l +1 )
Conectividad molecular
m
extendido
r =1
]
− 1/ 2
donde δ(vi), δ(vj),… δ(vl+1) son los grados de
los vértices en la cadena considerada
Conectividad de valencia
[
1χ v =
∑ δ v (vi )δ v (v j )
m
l =1
]
− 1/ 2
i≠ j
Para evitar el uso indiscriminado de este tipo de índice, uno de los más prestigiosos
investigadores en esta área de la química ha propuesto que para la generación de nuevos
índices de esta naturaleza, estos deben cumplir los siguientes atributos:
Atributos deseables para los índices topológicos, según randic
1. Interpretación estructural directa. Indices basados en conceptos estructurales
sencillos ayudan a interpretar propiedades en términos de estructura química.
2. Buena correlación con al menos una propiedad. Esto sugiere el aspecto estructural
dominante en la propiedad.
3. Buena discriminación de isómeros. Necesario cuando la propiedad en estudio
cambia con el isómero.
4. Localmente definidos. Es decir, que no se obtengan de forma global, sino
localmente como en los índices de conectividad, en que se definen por la
conectividad de cada átomo.
5. Generalizable a análogos superiores. Por ejemplo, los índices 1 χ , 2 χ , 3 χ ,…,etc.
6. Linealmente independientes. Permite describir información estructural no contenida
en otros índices.
7. Simplicidad. Facilita su interpretación.
8. Que no estén basados en propiedades físico-químicas.
9. Queno estén relacionados de manera trivial con otros índices.
10. Eficiencia de construcción. Facilita su cálculo.
11. Basados en conceptos estructurales familiares.
12. Mostrar una dependencia correcta con el tamaño.las propiedades que dependen del
tamaño y en general, la selectividad de los índices disminuye con el tamaño del
grafo.
13. Tener cambios graduales con cambios graduales en la estructura.
III.2.5 Criterios de selección de parámetros.
No existe ningún criterio simple ni único, para seleccionar qué parámetros deben
utilizarse en un estudio de relación estructura-actividad. Ante un problema nuevo se
debe comenzar a buscar en la literatura trabajos previos realizados sobre el mismo tipo
de productos, y de no encontrarse, sobre productos parecidos o con la misma actividad.
En general, en esta primera etapa, cualquier tipo de información puede ser orientadora
respecto a las características físico-químicas que pudieran intervenir en la actividad, y
por tanto cuáles son los parámetros más adecuados para describirlas.
No obstante, es posible encontrarse en situaciones en las cuales no se disponga de
ninguna información previa; en esos casos, una solución inteligente es seleccionar
algunos parámetros representativo de cada una de las propiedades físico-químicas,
electrónicas, estéricas y estructurales de la molécula. Esta primera orientación, aunque
no genere un buen modelo, podrá señalar cuáles de estos parámetros tiene una mayor
influencia en la actividad y por tanto aumentar el número de índices que me describen la
misma en un segundo intento de análisis.
III.2.6 Situación actual y Tendencias futuras del diseño de fármacos.
El avance sostenido que ha experimentado la bioquímica y la biología molecular en
cuanto a la identificación de macromoléculas dianas, la identificación de secuencias de
nucleótidos y aminoácidos, llegando en algunos casos, a la elucidación a nivel atómico
de su estructura y del complejo fármaco-receptor; unido a los poderosos sistemas
computacionales, que haciendo uso de esta información pueden crear modelos
tridimencionales del ligando y del receptor; hacen posible en la actualidad, el estudio de
preferencias configuracionales, de la naturaleza y las magnitudes de las fuerzas
interatómicas que gobiernan su interacción, así como el comportamiento dinámico de
este
complejo.
Estos
procedimientos
ayudan
al
mejor
entendimiento
del
comportamiento de estos sistemas a nivel subcelular, permitiendo establecer
comparaciones entre los datos teóricos y los experimentales, e incluso realizar
predicciones cuantitativas.
Teniendo en cuanta los avances que promete tener la farmacología molecular, es de
suponer que el futuro del diseño de fármacos no esté destinado como hasta el presente, a
la obtención de sustancias que puedan ser reconocidas por los receptores o que modulen
la síntesis, metabolismo o recaptación de los neurotransmisores, sino que estará
orientado a obtener sustancias que actúen sobre los sistemas enzimáticos activadores de
la cascada de eventos que lleva consigo una respuesta farmacológica. Entiéndase por
sistemas enzimáticos activadores de la cascada de eventos a las proteinas G o cualquiera
de sus subunidades, las enzimas formadoras de mensajeros secundarios, las proteínaquinasas entre otras.
El influir mediante estos fármacos sobre estós mecanismos intermediarios entre el
receptor y el efector,
pueden dar origen a sustancias muy selectivas que operen
selectivamente sobre las células que padescan la disfunción. El hecho de que no siempre
es mejor actuar sobre los receptores lo suguiere el hecho de que frente a una exposición
contínua del agonista o del antagonista, se produscan fenómenos de desensibilización o
supersencibilidad, que pueden ser responsables de nuevas alteraciones fisiológicas.
Descargar