este enlace - Universidad de Navarra

Anuncio
GENÉTICA HUMANA
Conceptos, Mecanismos y Aplicaciones de la Genética en el
campo de la Biomedicina
Texto Multimedia
Francisco Javier Novo Villaverde
Departamento de Genética
UNIVERSIDAD DE NAVARRA
PRÓLOGO
La generalización del uso de Internet y de los ordenadores domésticos permite concebir libros de texto cada
vez más interactivos, con tutoriales multimedia y enlaces a los abundantísimos sitios educativos disponibles
en la Red. Esto es especialmente útil en una materia como la Genética, en la que la percepción gráfica de
los procesos es imprescindible para la adecuada comprensión de los conceptos y mecanismos implicados.
Este libro de texto es fruto de mi reflexión acerca del modo de impartir la docencia de Genética a alumnos
de disciplinas biomédicas que se enfrentan por primera vez con el apasionante mundo de los genes. Durante
años he venido impartiendo la asignatura de Genética Humana a alumnos de las licenciaturas de Biología y
Bioquímica de la Universidad de Navarra, y esto me ha permitido preparar poco a poco un manual detallado
y abundante material gráfico que han constituido el esqueleto del presente texto. Sobre este esqueleto
inicial he añadido nuevos capítulos y gran cantidad de material multimedia que han dado como resultado
este texto de "Genética Humana: conceptos, mecanismos y aplicaciones de la Genética en el campo de la
Biomedicina".
Quizás lo que más llame la atención sobre este texto es que se presenta en un formato novedoso: sólo se
incluyen algunas tablas e ilustraciones que ayudan a mantener la fluidez de la lectura, pero todos los
materiales gráficos se han incluido en un CD que contiene todas las figuras a las que se hace referencia en
el texto. El CD está compuesto por una serie de páginas web que se pueden visualizar con cualquier
navegador, y que van guiando al alumno paso a paso a través de tutoriales propios o de enlaces a videos o
figuras de especial interés para comprender algún concepto. Por tanto, el mayor aprovechamiento se
conseguirá si el alumno va estudiando el texto y siguiendo al mismo tiempo, con calma, las figuras del CD.
Este método permitirá, o al menos eso espero, una comprensión rápida de los conceptos y mecanismos, ya
que éste es el enfoque que he pretendido dar al texto. En mi opinión, ninguna figura "estática" puede suplir
la información aportada por un video ó una animación comentada, y por ello la mayoría de los tutoriales
están grabados con una voz en ―off" que explica lo que se está viendo. Esto supone que el alumno debe
utilizar un ordenador con tarjeta de sonido y altavoces (o auriculares); para los enlaces externos necesita
también conexión a Internet. Confío en que la mayoría de los hogares cuentan hoy en día con esta
tecnología. Una ventaja (no despreciable) de esta estructura es que permite abaratar significativamente el
coste final del producto, al no requerir figuras a color dentro del propio texto; espero que esto ayude
también a conseguir una amplia difusión del libro.
Sin duda, algunos de los que han leído las líneas precedentes (en especial, colegas en la docencia
universitaria de Genética) habrán pensado que este libro de texto supone una especie de "autotexto" que
podría hacer innecesarias las clases teóricas. Nada más lejos de mi intención. De todas formas, al elaborar
este método he tenido en mente las directrices sobre el nuevo Espacio Europeo de Educación Superior,
y en especial el sistema de transferencia de créditos europeos (ECTS) de reciente implantación en la Unión
Europea. Este sistema está basado en la cantidad de trabajo que ―a juicio del profesor― debe invertir un
alumno para la adecuada comprensión y aprendizaje de la materia respectiva, y por eso el concepto de
crédito incluye también las horas de trabajo personal del alumno. El presente libro, que exige al alumno una
inversión sustancial de tiempo mientras "navega" por las figuras al tiempo que estudia el texto, se adapta
especialmente bien a este nuevo concepto. En cualquier caso, como es lógico, las clases presenciales siguen
siendo un pilar básico de la docencia universitaria, puesto que en ellas el alumno recibe una visión diferente
de los mismos conceptos que se exponen en el libro, puede además aclarar las dudas que le hayan surgido
(si ha leido el capítulo correspondiente antes de la clase, como es aconsejable) y puede también fijar los
conceptos clave que poco a poco le irán ayudando a "pensar" como un genetista.
Como he dicho, el principal destinatario de este texto es el alumno que cursa una asignatura general de
Genética en una licenciatura biomédica (Medicina, Farmacia), y que se enfrenta por primera vez con esta
materia. De todas formas, también puede ser útil para alumnos de la licenciatura de Biología que ya hayan
cursado una asignatura de Genética General (y, quizás, Ingeniería Genética) y se enfrentan con una
asignatura más específica de Genética Humana, especialmente los capítulos incluidos en los bloques B, D y
E. En este caso, los capítulos correspondientes al bloque A y al bloque C ya habrán sido estudiados con
mucho más detalle en esas otras asignaturas, pero lo presentado aquí puede servir como resumen que
ayude a recordar los conceptos fundamentales. Lógicamente, espero que este texto también resulte útil a
médicos y otros profesionales del mundo biomédico que quieran ponerse al día, o que necesiten un
compendio claro, actualizado y moderno de los conceptos, mecanismos y aplicaciones que ofrece la
Genética en el siglo XXI.
INDICE DE CAPÍTULOS
A. INTRODUCCIÓN
Capítulo 1. El flujo de la información genética.
Los Ácidos Nucleicos. Visión general de la expresión génica. Transcripción. Regulación
de la transcripción en eucariotas. Procesamiento del ARN mensajero: maduración y
ayuste (splicing). Traducción y código genético en eucariotas.
Capítulo 2. El ADN en el núcleo de la célula eucariota.
La cromatina durante el ciclo celular. Replicación de la cromatina en interfase.
Formación y segregación de los cromosomas durante la mitosis. Gametogénesis y
meiosis. Recombinación a nivel molecular.
Capítulo 3. Técnicas básicas de genética molecular.
Tecnología del ADN recombinante: métodos y usos más frecuentes. Enzimas de
restricción. Amplificación in vitro de ADN (PCR). Secuenciación. Técnicas básicas de
hibridación de ácidos nucleicos. Microarrays.
B. EL GENOMA HUMANO
Capítulo 4. La geografía del genoma humano.
Historia y desarrollo del Proyecto Genoma Humano. Estructura del genoma humano y
variación inter-individual. El ADN repetitivo. El genoma mitocondrial.
Capítulo 5. El genoma humano en acción.
La secuencia influye en el estado funcional de la cromatina. Modificaciones
epigenéticas y su importancia en la regulación del estado funcional de la cromatina.
Relación entre secuencia, estructura y función de la cromatina: territorios
cromosómicos.
Capítulo 6. Origen de la variación genética en humanos.
Variación en el ADN: polimorfismos y mutaciones. Mecanismos de reparación del ADN
en humanos. Enfermedades causadas por alteraciones en los mecanismos de
reparación.
C. LA TRANSMISIÓN DE LOS CARACTERES HEREDITARIOS
Capítulo 7. Genética mendeliana.
Planteamiento experimental de Mendel. Monohibridismo: primera ley de Mendel.
Cruzamiento de prueba. Dihibridismo: segunda ley de Mendel. Redescubrimiento del
trabajo de Mendel. Teoría cromosómica de la herencia.
Capítulo 8. Herencia relacionada con el sexo.
Cada sexo tiene distinta constitución cromosómica. Los genes situados en el
cromosoma X muestran un modo especial de herencia. Determinación del sexo y
compensación de dosis: hipótesis de Lyon. Estructura de los cromosomas sexuales
humanos.
Capítulo 9. Modificaciones de las proporciones mendelianas.
Modo de estimar si se cumplen las proporciones mendelianas esperadas. Causas por
las que se obtienen desviaciones de las proporciones mendelianas para un carácter:
dominancia incompleta, codominancia y alelos múltiples. Alelos letales. Interacción
génica: epistasia.
Capítulo 10. Genética de los caracteres cuantitativos.
Genética de los caracteres cuantitativos: experimentos de Johannsen, Nilsson-Ehle y
East. Modelo poligenes-ambiente y enfermedades multifactoriales. Heredabilidad en
sentido amplio y en sentido restringido. Cálculo de la heredabilidad en Genética
humana.
Capítulo 11. Ligamiento genético en humanos.
El concepto de ligamiento: fracción de recombinación y distancia genética.
Informatividad de los marcadores utilizados en estudios de ligamiento. El cálculo del
LOD score. Ligamiento no paramétrico y su utilización en genética humana.
Capítulo 12. Los genes en las poblaciones. Evolución.
El equilibrio de Hardy-Weinberg. Cambios en las condiciones que mantienen el
equilibrio. Aplicaciones en Genética Humana. Formación de la Teoría Sintética de la
evolución. Explicación actual del proceso evolutivo.
D. PATOLOGÍA GENÉTICA
Capítulo 13. Citogenética
El estudio de los cromosomas humanos. El fenómeno de no disyunción meiótica y sus
implicaciones. Anomalías del número de los cromosomas. Anomalías estructurales de
los cromosomas.
Capítulo 14. La Mutación como causa de enfermedad.
Características generales de las mutaciones. Mutaciones simples: tipos y
nomenclatura. Potencial patogénico de las mutaciones en el ADN codificante y en el
ADN no-codificante intragénico e intergénico.
Capítulo 15. Potencial patogénico de las secuencias repetidas.
Mutaciones en secuencias que están repetidas en tándem. Expansión de
trinucleótidos: neuropatías por expansiones de CAG y enfermedades por expansión de
otros trinucleótidos. Otras enfermedades por expansión de secuencias repetidas.
Mutaciones debidas a repeticiones dispersas. Desórdenes genómicos.
Capítulo 16. Efectos fenotípicos de las mutaciones.
Pérdida de función: fenotipos recesivos y fenotipos dominantes por haploinsuficiencia.
Fenotipos dominantes por ganancia de función. Alteraciones de la impronta genómica.
Mutaciones que afectan a la morfogénesis.
Capítulo 17. Diagnóstico de enfermedades genéticas.
Estrategias generales de diagnóstico de enfermedades genéticas. Métodos de
detección de mutaciones. Aplicación del ligamiento genético al diagnóstico: el proceso
de diagnóstico indirecto de enfermedades genéticas.
Capítulo 18. Genética Clínica.
Genética clínica y consejo genético. Enfermedades de herencia autosómica y de
herencia ligada al cromosoma X. Aplicación del teorema de Bayes al cálculo de riesgos
genéticos. Enfermedades por alteración del ADN mitocondrial. Diagnóstico prenatal.
E. NUEVAS HERRAMIENTAS DE LA GENÉTICA MODERNA
Capítulo 19. Terapia Génica.
Componentes de un sistema de terapia génica y vías de administración. Naturaleza del
ácido nucleico terapéutico. Tipos de vectores y su utilización en distintas estrategias
de transferencia génica. Aplicaciones clínicas de la terapia génica en el momento
actual.
Capítulo 20. Bioinformática del genoma humano.
Bases de datos de utilidad en Genética Humana: bases de datos de secuencias y bases
de datos relacionadas con enfermedades. Búsquedas en bases de datos con BLAST.
Navegadores del Genoma Humano.
CAPÍTULO 1: EL FLUJO DE LA INFORMACIÓN GENÉTICA
1
A. INTRODUCCIÓN
Se incluyen en esta sección tres temas que servirán para repasar los aspectos
fundamentales de la estructura de los ácidos nucleicos y la biología molecular del gen,
así como la estructura básica de la cromatina y sus cambios durante el ciclo celular.
Capítulo 1. El flujo de la información genética.
Los Ácidos Nucleicos. Visión general de la expresión génica. Transcripción.
Regulación de la transcripción en eucariotas. Procesamiento del ARN
mensajero: maduración y ayuste (splicing). Traducción y código genético en
eucariotas.
Los Ácidos Nucleicos
La información genética se transmite a través de unas moléculas llamadas ácidos nucleicos, polímeros
formados por unidades denominadas nucleótidos. Un nucleótido es una molécula formada por una
pentosa, una base nitrogenada y un grupo fosfato. Al conjunto formado por la pentosa y la base
nitrogenada se le denomina nucleósido. Por tanto, un nucleótido es el éster fosfato de un nucleósido.
Dependiendo de la naturaleza de la pentosa, se distinguen dos tipos de ácidos nucleicos: el ácido
ribonucleico (ARN) lleva D-ribosa, y el ácido desoxi-ribonucleico (ADN) contiene 2-desoxi-D-ribosa. Las
bases nitrogenadas que forman parte de los ácidos nucleicos pueden ser monocíclicas (pirimidinas) o
bicíclicas (purinas). Las bases que intervienen en la formación del ADN se denominan Adenina (A),
Citosina (C), Guanina (G) y Timina (T). El ARN contiene las tres primeras y Uracilo (U) en vez de Timina.
Fue Friedrich Miescher el primero en identificar, en 1869, un material que llamó nucleína. Estudios
posteriores fueron caracterizando progresivamente la naturaleza química de esta sustancia, así como su
importancia biológica. Después de bastante controversia, Avery, MacLeod y McCarthy demostraron en
1944 que la introducción de ADN purificado en bacterias hace que éstas cambien su fenotipo y es, por tanto,
la molécula transmisora de la información genética. En 1953, Rosalind Franklin, Maurice Wilkins, James
Watson y Francis Crick describieron la estructura tridimensional del ADN.
La Figura 1.1 contiene enlaces a los artículos originales de estos autores.
El ADN y el ARN son cadenas de polinucleótidos. Como los nucleótidos tienen direccionalidad debido a la
posición del grupo fosfato en el carbono 5' y del grupo hidroxilo en el carbono 3' de la pentosa, las
moléculas de ADN y ARN también tienen una polaridad concreta que viene definida por la dirección 5' 
3'. El ADN es una molécula formada por dos cadenas antiparalelas, es decir, con polaridad contraria.
Cada cadena está formada por un esqueleto desoxi-ribosa-fosfato, en el que alternan moléculas de desoxiribosa unidas a los grupos fosfato mediante enlaces fosfo-diéster. De este esqueleto "protruyen" las bases
nitrogenadas, unidas a la pentosa mediante enlaces glucosídicos. Además, la molécula de ADN está formada
por dos cadenas complementarias, lo que significa que la secuencia de bases nitrogenadas de una cadena es
2
GENÉTICA HUMANA
complementaria a la de la otra cadena. Esto se debe al hecho de que las bases nitrogenadas forman sólo
dos tipos de parejas: Citosina se empareja con Guanina y Adenina se empareja con Timina. Erwin
Chargaff fue el primero en demostrar en 1950 que el ADN de doble cadena tiene relaciones equimolares de
purinas y pirimidinas, siendo la cantidad total de desoxi-adenina (dA) igual a la de desoxi-timina (dT), y la
de desoxi-guanina (dG) igual a la de desoxi-citosina (dC). Por tanto, una conclusión derivada de esto es que
siempre se emparejan una purina con una pirimidina del mismo modo, siendo los pares dA con dT y dG
con dC. Watson y Crick, en su modelo de doble hélice, establecieron el modo exacto en que se forman los
enlaces en cada par de bases, con tres puentes de hidrógeno en un par dG·dC y dos puentes de
hidrógeno en un par dA·dT. Aunque hay muchos más tipos posibles de enlaces entre cada uno de estos
nucleótidos, los enlaces tipo Watson-Crick tienen una propiedad importante: ocupan el mismo espacio
dentro de la doble cadena y pueden intercambiarse sin distorsionar la molécula. Finalmente, el hecho de
que sólo se formen dos tipos de pares de bases explica que las dos cadenas sean complementarias, ya
que la secuencia de bases de una puede convertirse fácilmente en la secuencia de bases de la otra cadena
sustituyendo cada base por su complementaria.
La Figura 1.2 contiene un enlace a animaciones en las que se explica la
estructura de los ácidos nucleicos y de la doble hélice.
Por tanto, en la molécula completa de ADN, las cadenas polinucleotídicas se mantienen unidas entre sí
gracias a los puentes de hidrógeno que se forman entre bases pertenecientes a cada una de las cadenas.
Además, esta doble hebra no es lineal (como una escalera de mano), sino que adopta una configuración
helicoidal en la que las bases nitrogenadas ocupan el interior y se disponen perpendicularmente a las
cadenas laterales. Este fenómeno se denomina "apilamiento" de las bases (base stacking) y es muy
importante para mantener la estabilidad global de la doble hélice. Existen distintos tipos de configuraciones
que puede adoptar la doble hélice dependiendo de las condiciones del medio, pero la más relevante desde el
punto de vista biológico es la forma B, ya que es la más frecuente en condiciones fisiológicas. En esta
configuración, la hélice es dextrógira, con un diámetro de 2 nm, tiene 10 pares de bases por vuelta y una
distancia de 0,34 nm entre cada par de bases. Las dos moléculas de desoxi-ribosa a las que se unen cada
una de las bases del mismo par forman dos "surcos" en la superficie externa de la hélice. Además, como
estas dos desoxi-ribosas no están situadas simétricamente, sino que miran hacia la misma cara de la doble
hélice, los dos surcos que se forman no son iguales: uno de ellos es más ancho (surco mayor) y otro más
estrecho (surco menor).
La Figura 1.3 permite visualizar la forma B del ADN en tres dimensiones.
Visión general del proceso de expresión génica
La secuencia de nucleótidos de determinados fragmentos del ADN contiene información para la fabricación
de proteínas, que son los principales elementos estructurales y funcionales de las células. De hecho, la
secuencia de nucleótidos determina el tipo de aminoácidos y el orden en que se añaden en el proceso de
síntesis de proteínas, y esa información está contenida de un modo codificado en la secuencia de bases del
ADN. El proceso por el que dicha información es descodificada y "traducida" para dar lugar a la síntesis de
proteínas específicas se conoce como expresión génica. Este proceso comprende varios pasos de
descodificación, que en líneas generales son la transcripción y la traducción. En lenguaje coloquial,
transcribir significa pasar algún tipo de información de un medio a otro. Por ejemplo, se transcribe una
conversación al ponerla por escrito. El primer paso en la lectura de la información contenida en la secuencia
CAPÍTULO 1: EL FLUJO DE LA INFORMACIÓN GENÉTICA
3
de nucleótidos consiste en la síntesis de una cadena de ARN a partir de un segmento de ADN. Este proceso
de copia de una secuencia "molde" de ADN en un ARN se denomina transcripción. El ARN mantiene la
información que estaba contenida en el ADN precisamente porque lleva la misma secuencia de nucleótidos
(con la excepción de las timinas, que son sustituidas por uracilos). Esta cadena de ARN puede intervenir
directamente en algún proceso celular, pero lo más habitual es que transmita la información al siguiente
elemento de la cadena de descodificación, y por eso se llama ARN mensajero (abreviado como ARNm). El
ARNm es, por tanto, la molécula que va a llevar la información contenida en un segmento concreto de ADN
(es decir, un gen) hasta la maquinaria de fabricación de proteínas. Como esta maquinaria está en el
citoplasma, el ARNm debe salir del núcleo celular a través de los poros nucleares y llegar a los ribosomas.
Allí, mediante un proceso denominado traducción, la información genética contenida originalmente en la
secuencia de nucleótidos del ADN será finalmente traducida en una serie de instrucciones que permiten al
ribosoma sintetizar una proteína concreta. En los siguientes apartados veremos con detalle cada uno de
estos procesos.
La Figura 1.4 contiene un video en el que se ve el proceso general de
expresión génica.
La transcripción
El proceso general de transcripción consiste en la síntesis de una cadena de ARN por la acción de una
polimerasa de ARN, que lee la secuencia de nucleótidos contenida en el ADN molde y sintetiza la nueva
cadena de ARN utilizando nucleótidos libres. En este proceso, la polimerasa se desliza por la cadena molde
de ADN. La transcripción es un proceso cíclico que se repite, en el que hay varias fases esenciales: i)
determinar la región molde de ADN que ha de ser copiada, ii) iniciar la síntesis de ARN, iii) estabilizar y
modular la elongación del ARNm naciente, iv) terminar el proceso. En eucariotas, la molécula encargada de
la síntesis es una polimerasa de ARN dependiente de ADN, es decir una polimerasa que usa un molde
de ADN para sintetizar un ARN. Este enzima es en realidad un complejo enzimático formado por múltiples
subunidades proteicas al que se unen también factores accesorios sin los cuales no puede reconocer el lugar
correcto de inicio de la síntesis. En eucariotas se distinguen 3 tipos de ARN polimerasas en función del tipo
de genes que transcriben. Los genes tipo I de eucariotas son los que codifican los ARN ribosomales que
veremos más adelante, y la polimerasa encargada de transcribir estos genes es la ARN polimerasa I. La
mayoría de los genes son genes tipo II, que codifican proteínas y algunos ARN pequeños con funciones
concretas; su transcripción corre a cargo de la ARN polimerasa II. Finalmente, otros ARN pequeños, algunos
ARN ribosomales y los ARN transferentes son sintetizados por la ARN polimerasa III.
El primer paso en la transcripción es determinar en qué punto comienza. Esto viene determinado por la
existencia de unas secuencias que definen la región del gen en la que se une el complejo enzimático
responsable de la síntesis. Estas secuencias se llaman promotores, y son necesarios para que la
transcripción pueda tener lugar. Un promotor consta de varios pequeños motivos de secuencia, dispersos a
lo largo de varios cientos de pares de bases, a los que se unen los distintos factores proteicos necesarios
para la transcripción. De hecho, la ARN polimerasa no se une al promotor directamente, sino a través de
otro complejo proteico denominado complejo de preiniciación. Por ejemplo, una de las secuencias más
constantes en promotores de eucariotas es la caja TATA, cuya secuencia consenso es 5'-TATATAAAT-3'; a
esta secuencia se une un factor proteico llamado "proteína de unión a TATA" (en inglés TATA-binding
protein, abreviado TBP). Sobre este factor se unen otros factores accesorios y dan lugar a un factor de
transcripción llamado TFIID. De modo similar, se forman otros factores de transcripción, que en el fondo
4
GENÉTICA HUMANA
no son más que proteínas con algún dominio de unión al ADN, que reconocen específicamente las
secuencias presentes en los promotores y se unen a ellas. En el promotor eucariota típico de genes tipo II
se forma un complejo con TFIID, TFIIA, TFIIB y TFIIF, al que se une la ARN polimerasa II. La unión
posterior de TFIIH y TFIIE añade otras actividades al complejo, como la actividad helicasa necesaria para
abrir la doble hélice y permitir el copiado de una cadena, y hace que comience la transcripción. Por tanto, la
formación del complejo de preiniciación sobre promotores específicos es la forma de controlar que la ARN
polimerasa comience a sintetizar en el lugar correcto. Además, los promotores eucariotas están también
modulados por otros elementos más lejanos del punto de inicio de la transcripción, llamados
"potenciadores" (enhancers en inglés) ó "silenciadores". Estos elementos son secuencias de ADN sobre
las que se unen factores proteicos que contribuyen a estabilizar y potenciar el complejo de preiniciación, en
el caso de los potenciadores, o a impedir la transcripción en el caso de los silenciadores. Existen muchos
otros elementos de secuencia que forman parte de promotores y que permiten regular dónde ó cuándo se
transcribe un gen. Muchos de estos elementos tienen una localización precisa respecto al inicio de la
transcripción: por ejemplo, la caja TATA suele estar 25 nucleótidos en dirección 5' al inicio de la
transcripción (es decir, en posición ―25, ya que se considera como posición +1 la del nucleótido donde se
inicia la síntesis). Otros elementos frecuentes son la caja GC (secuencia consenso GGGCGG) o la caja
CAAT (CCAAT) en posición ―100, a las que se unen factores de transcripción específicos.
Exon 1
PROMOTOR
CAJA TATA
INICIO DE LA
TRANSCRIPCIÓN
5’—ACGtataaGATCTCGATCGAGACTAGCTAGCTAGCTAgCGATCGAGCTA-3’
|||||||||||||||||||||||||||||||||||||||||||||||||
3’-TGCTAGCTAGATAGCTAGCTCTGATCGATCGATCGATCGCTAGCTCGAT-5’
DOBLE CADENA DE ADN
(GEN)
Con la fosforilación del extremo carboxilo-terminal de la ARN polimerasa II, comienza el
desplazamiento de la misma por la cadena molde de ADN y la síntesis del ARN naciente. En este proceso, la
polimerasa lee la secuencia de nucleótidos de una de las cadenas de la doble hebra de ADN y sintetiza un
polinucleótido complementario, reemplazando las timinas del ADN por uracilos. De este modo, se conserva
perfectamente la información que estaba contenida en el ADN. En este sentido, tiene importancia saber
cuál es la hebra de la doble hélice que es utilizada como molde, y a veces existe cierta confusión sobre la
nomenclatura de las dos hebras del ADN bicatenario. Es importante recordar que los polinucleótidos se
sintetizan en dirección 5'3', y lo mismo sucede con la síntesis del ARN mensajero. Por tanto, la hebra
molde se lee en sentido 3'5' (es decir, antisentido) al tiempo que la transcripción procede en sentido
5'3'. Por eso, el convenio es llamar "hebra codificante" ó "hebra sentido" a la hebra de la doble
cadena de ADN que contiene exactamente la misma secuencia de nucleótidos que el futuro ARNm transcrito
CAPÍTULO 1: EL FLUJO DE LA INFORMACIÓN GENÉTICA
5
(excepto por los uracilos). A la hebra complementaria, que es la que se utiliza como molde, se le llama
"hebra molde" ó "hebra antisentido".
La figura 1.5 muestra una secuencia de ADN en la que se representan las
principales secuencias implicadas en la transcripción de un gen.
El proceso de elongación del transcrito naciente, al menos en eucariotas, está sujeto a numerosas pausas
ó paradas, debido a diversos obstáculos que la polimerasa se puede encontrar al avanzar por el ADN molde.
Como veremos en el siguiente capítulo, la doble hélice está empaquetada en forma de cromatina, y esto
crea obstáculos importantes a los procesos de transcripción; además, el ADN puede haber sufrido daños que
a veces impiden el paso del complejo transcripcional. Por eso, es importante la presencia de factores que
favorecen la elongación, tales como algunos factores de transcripción (TFIIF y TFIIS) ó la elongina. La
fosforilación de la ARN polimerasa también favorece significativamente el proceso de elongación. La última
fase del proceso de transcripción es la terminación de la síntesis. Así como en procariotas la terminación
está mediada por unas secuencias específicas en el ADN molde, en eucariotas la terminación no sigue este
modelo, sobre todo en el caso de la ARN polimerasa tipo II. La síntesis habitualmente sigue hasta que se ha
sobrepasado el punto que constituirá el extremo 3' del ARN mensajero, y la terminación está ligada a los
procesos de maduración del transcrito que se describen a continuación.
La figura 1.6 contiene un enlace a un video que muestra esquemáticamente
el proceso de transcripción.
Regulación de la transcripción en eucariotas
Así como los mecanismos que regulan la expresión génica son bastante bien conocidos en procariotas, y se
han identificado distintos tipos de ARN polimerasas y de factores de transcripción implicados en el inicio de
la transcripción, el panorama en eucariotas es mucho más complejo. Sólo en los últimos años ha comenzado
a conocerse con cierto detalle el modo en que se regula la intensidad de la expresión génica, su restricción a
determinados tejidos y su variación en respuesta a estímulos extracelulares. Aunque esta regulación se
puede dar a varios niveles de complejidad, en este apartado estudiaremos únicamente el nivel basal, que es
el compuesto por las secuencias promotoras, potenciadoras y silenciadoras del inicio de la transcripción y
los factores proteicos que se unen a ellas. El complejo basal de iniciación es una maquinaria molecular
gigante, con distintas actividades, cuyo ensamblaje es necesario para la transcripción correcta tanto de
genes constitutivos como de genes que se expresan sólo en determinados tejidos.
Hasta hace unos 10 años, se conocían 6 factores generales de iniciación de la transcripción de genes
clase II en eucariotas, llamados TFIIA, TFIIB, TFIID, TFIIE, TFIIF y TFIIH. Éstos, junto con la ARN
polimerasa II, son suficientes para iniciar la transcripción de algunos genes in vitro, es decir, en el tubo de
ensayo. Pronto se vio que algunos de estos factores generales eran en realidad complejos formados por
varios componentes, y se identificaron un total de 23 proteínas además de las 12 subunidades de la ARN
polimerasa II; con esto, se propuso un modelo por el que todos estos factores se ensamblan durante la
iniciación de la transcripción. Los progresos de los últimos años han revelado que en realidad el
transcriptosoma es un complejo mucho mayor de lo que se creía, con muchos otros componentes proteicos
que llevan a cabo otras funciones, como la remodelación de la cromatina ó la reparación del ADN. La
regulación de la expresión génica se ejerce, a este nivel basal, mediante la regulación del ensamblaje de la
maquinaria proteica necesaria para la transcripción, y en este sentido se ha estudiado especialmente el
6
GENÉTICA HUMANA
papel de los potenciadores y los activadores. Los potenciadores ("enhancers" en inglés) son pequeños
elementos de secuencia del ADN a los cuales se unen unos factores proteicos llamados activadores, y
dicha unión estimula la transcripción. Dado que distintos genes tienen distintos elementos potenciadores y
que no todas las células poseen los mismos activadores, este sistema permite cierta especificidad en la
respuesta a estímulos fisiológicos que recibe las células de distintos tejidos. Además, los activadores son
proteínas modulares, es decir, poseen distintos dominios de unión a potenciadores diferentes, lo cual
regula la afinidad y especificidad de las interacciones con los elementos de ADN.
El modo en que la unión de los activadores a los potenciadores es capaz de promover la trancripción, ha
sido estudiado con profundidad en los últimos años. Estos estudios han permitido aislar otro complejo
proteico llamado mediador, constituido también por varias subunidades, que interacciona con los
activadores y con la ARN polimerasa II y así transduce las señales proporcionadas por los potenciadores al
promotor basal de la transcripción. Se han identificado varios mediadores en humanos, como TRAP, DRIP y
otros; además de ayudar a estabilizar el complejo de iniciación gracias a las interacciones con los
activadores y los factores generales de transcripción, los mediadores también pueden regular directamente
la actividad de la ARN polimerasa II.
La figura 1.7 muestra el ensamblaje del complejo basal de transcripción por
la acción de activadores y mediadores.
Maduración del ARN mensajero
En los genes transcritos por la ARN polimerasa tipo II, que en su inmensa mayoría son genes codificantes
de proteínas, el ARN mensajero primitivo debe ser procesado para mejorar su estabilidad y para eliminar las
regiones que no son codificantes. Además, en algunos casos es sometido a un proceso de corrección de
errores o "edición".
En primer lugar, el ARN naciente es estabilizado mediante la adición de distintos grupos en sus extremos
5' y 3', ya que los extremos libres de la molécula de ARN son los más vulnerables a la degradación por unas
enzimas llamadas exonucleasas. El extremo 5' es modificado mediante la adición del capuchón ó caperuza
("cap" en inglés), que consiste en la adición al primer nucleótido del ARN de una guanina modificada.
Podemos representar el extremo 5' de un ARN recién transcrito por 5'-pppNpN…-3', siendo cada p un grupo
fosfato y N un nucleótido cualquiera (como es habitual, el primer nucleótido de la cadena tiene 3 grupos
fosfato unidos al carbono 5' de la ribosa). La caperuza consiste en una guanina metilada en posición 7,
que se une por su carbono 5' al primer grupo fosfato de la cadena. Por tanto, el enlace entre la 7-metilguanina y el primer nucleótido es atípico, ya que es un enlace 5' 5' en vez del enlace 5' 3' habitual. El
otro tipo de modificación del ARN mensajero tiene lugar en el extremo 3' del mismo, y consiste en el corte
por un punto concreto y la posterior adición de una cola de poli-adeninas. Es importante recordar que dicha
cola no se añade al extremo final del transcrito primario, sino que previamente tiene lugar un corte interno.
El punto de corte viene definido por la presencia de una señal de poli-adenilación en el ARNm (cuya
secuencia consenso es 5'-AAUAAA-3') y un tracto rico en guaninas y uracilos (tracto GU) localizado unos
30-40 nucleótidos por debajo de la señal de poli-adenilación (es decir, en dirección 3'). El proceso está
mediado por unos factores proteicos que se unen a cada una de estas señales, cortan al ARN mensajero
unos 20 nucleótidos por debajo de la señal de poli-adenilación, y comienzan a añadir adeninas. La formación
de esta cola poli(A) es muy importante para mantener la estabilidad del ARNm y asegurar que éste pueda
seguir siendo procesado y llegue a traducirse correctamente.
CAPÍTULO 1: EL FLUJO DE LA INFORMACIÓN GENÉTICA
7
La figura 1.8 contiene un enlace a un video educativo que muestra
esquemáticamente la adición de la caperuza y la formación de la cola poli(A).
Un último tipo de modificación que pueden sufrir algunos ARNm es la corrección ó "edición". La edición del
ARN es un mecanismo de modificación co- ó post-transcripcional mediante el cual se cambian uno ó varios
nucleótidos de un ARNm, con el resultado de que la secuencia del mensajero es ligeramente distinta de la
que venía codificada en la secuencia genómica. Este fenómeno, bastante común en otras especies pero más
raro en humanos, permite generar diversos ARNm a partir de un mismo gen. Por ejemplo, la
apolipoproteína ApoB48, que se produce en el intestino para entrar a formar parte de los quilomicrones, se
origina por efeco de un cambio CU en el que una citosina se des-amina para dar lugar a un uracilo; este
cambio crea un codón de parada en el ARNm de la ApoB100 y se produce una proteína más corta de lo que
sería esperado según la secuencia inicial. Un mecanismo similar está implicado en el origen de
enfermedades como la neurofibromatosis tipo I ó el tumor de Wilms, debidas a alteraciones en los genes
NF1 y WT1, respectivamente.
La figura 1.9 muestra esquemáticamente la edición del ARN que da lugar a la
ApoB48.
El ayuste (splicing) y su regulación
Los ARN mensajeros de eucariotas tienen una característica muy importante: no son codificantes en su
totalidad, desde el principio al fin, sino que las regiones codificantes están interrumpidas por otras regiones
no-codificantes. Es decir, no todos los nucleótidos del ARN mensajero son leídos para sintetizar proteínas,
sino que existen regiones codificantes llamada exones que alternan con otras regiones no-codificantes
llamadas intrones. Debido a esta configuración, el siguiente paso en la maduración de un ARNm consiste
en eliminar los intrones y pegar los exones para formar un mensajero maduro que pueda ser traducido
desde el principio hasta el fin y sin interrupciones. Este proceso de corte y eliminación de intrones con
empalme de los exones se denomina en inglés splicing, término naútico que corresponde al castellano
ayuste: la unión de dos cabos por sus chicotes. El ayuste es un proceso complejo, porque hay que tener en
cuenta que el número de exones e intrones de un gen puede ser muy grande, y requiere una maquinaria
proteica bastante sofisticada. En primer lugar, es importante definir el punto exacto que delimita la frontera
entre un exón y un intrón, para que la maquinaria encargada del ayuste pueda actuar. Estos puntos vienen
determinados por secuencias específicas del ARNm. Por ejemplo, los intrones de eucariotas comienzan en la
práctica totalidad de los casos por los nucleótidos Guanina-Uracilo (secuencia 5' de ayuste, GU) y terminan
en Adenina–Guanina (secuencia 3' de ayuste, AG). Estas secuencias se localizan dentro de unas regiones
más amplias que cumplen un consenso de secuencia concreto. Por ejemplo, la secuencia de ayuste 5' está
formada por el consenso 5'-AG|GU[A/G]AGU-3' (la barra vertical indica el sitio de corte donde termina el
exón precedente y comienza el intrón; [A/G] significa que en esa posición puede haber una A ó una G). Por
su parte, la secuencia de ayuste 3' se ajusta al consenso 5'-NCAG|G-3' (siendo N cualquier nucleótido).
Además, es importante la presencia de una adenina 20-40 nucleótidos por arriba (es decir, en dirección 5')
de la secuencia 3' de ayuste. Esta adenina se encuentra en la secuencia consenso 5'-CU[A/G]A[C/U]-3' (es
la adenina en negrita y subrayada), es decir, precedida por A ó G y seguida por C ó U, y se denomina
punto de ramificación (en inglés, "branch point"). Entre el punto de ramificación y la secuencia de ayuste
3' se encuentra un tracto rico en pirimidinas, es decir, formado casi exclusivamente por timinas ó
8
GENÉTICA HUMANA
citosinas. Finalmente, se han identificado pequeños elementos de secuencia en exones ó en intrones que
actúan como potenciadores ó silenciadores del proceso de ayuste, y que tienen gran importancia en la
modulación y regulación fina del proceso.
La figura 1.10 muestra esquemáticamente las distintas secuencias que son
importantes en el proceso de ayuste.
Exon 1
Exon 2
Intron 1
ARNnp U1
GUC CAUUCA
CAG GUAAGU
…UGAC…..….[C/T] [C/T][C/T][C/T] [C/T] [C/T]UG G
El proceso de ayuste implica varias reacciones enzimáticas que realizan cortes endonucleolíticos y unión
de extremos libres. El primer paso del proceso es el corte en el sitio de ayuste 5', justo por delante de la
guanina del GU inicial del intrón. Este extremo libre se une a la Adenina del punto de ramificación mediante
un enlace fosfo-diéster 5'-2', creando una estructura en lazo. Finalmente, se corta la secuencia de ayuste
3' por detrás de la guanina del sitio AG, lo que resulta en la liberación del intrón; los extremos libres de los
dos exones flanqueantes son entonces religados. Las moléculas que llevan a cabo estos procesos son unas
ribonucleoproteínas nucleares pequeñas (RNPnp), formadas por un ARN nuclear pequeño (ARNnp) y
varias subunidades proteicas. Aunque hay varios tipos de ARNnp, los que participan en el proceso de ayuste
se llaman U1, U2, U4, U5 y U6, y además dan su nombre a las correspondientes RNPnp. La RNPnp U1 se
une a la secuencia de ayuste 5' por complementariedad de bases, ya que uno de sus
extremos es
complementario a la secuencia consenso que rodea a la GU del extremo 5' del intrón.
Las otras ribonucleoproteínas implicadas actúan en los siguientes pasos del proceso. La RNPnp U2 se une
al punto de ramificación y esto hace ambas RNP entren en contacto y facilita la formación del lazo. A
continuación, un complejo formado por la RNPnp U4/6 y la RNPnp U5 se une a la región de ayuste 3' y
estabiliza la formación de todo el complejo, llamado ayusteosoma (spliceosome en inglés), y lleva a cabo
el corte 3' y la unión de los exones.
CAPÍTULO 1: EL FLUJO DE LA INFORMACIÓN GENÉTICA
9
La figura 1.11 contiene un enlace a un video educativo que muestra
esquemáticamente el proceso de ayuste.
Como se puede suponer, en un genoma eucariota hay miles de sitios que cumplen el consenso de secuencia
necesario para funcionar como sitios de ayuste, pero sin embargo sólo unos pocos participan en el
procesamiento normal de los genes. De hecho, uno de los temas más interesantes en la regulación del
ayuste es cómo se definen exactamente los límites de exones e intrones, de modo que la maquinaria
de ayuste los reconozca como tales. Aunque todavía quedan incógnitas por resolver, hoy en día sabemos
que hay otros elementos que cooperan para estabilizar el ayusteosoma y permitir que se lleve a cabo el
proceso. Entre estos elementos destacan la proteínas SR (llamadas así por ser ricas en los aminoácidos
Serina y Arginina), que interaccionan con distintos componentes del ayusteosoma y se unen a secuencias
moduladoras como son los potenciadores exónicos del ayuste. Todas estas interacciones tienen lugar
antes de la unión de las RNPnp U4/6 y RNPnp U5, y son muy importantes para definir los límites de exones
e intrones y para regular el ayuste alternativo, que es el fenómeno por el cual un mismo gen puede sufrir
distintos patrones de ayuste dependiendo del tejido ó del tipo celular en que se lleva a cabo. El ayuste
alternativo es un fenómeno muy común en humanos, y hace que los ARNm resultantes de los distintos tipos
de ayuste sean diferentes y por tanto tengan la capacidad de codificar proteínas distintas, lo que añade un
nivel más de complejidad en la función del genoma.
La figura 1.12 muestra esquemáticamente los complejos que intervienen en
la definición de los exones e intrones, así como el fenómeno de ayuste
alternativo.
Traducción y código genético en eucariotas
El paso final en el proceso de la expresión génica es la fabricación de una proteína a partir de la información
contenida en la secuencia del ARNm. Conceptualmente, este proceso es parecido a la interpretación de unas
instrucciones escritas en un idioma, siguiendo un código de interpretación concreto. Por eso, el proceso se
denomina traducción. Si queremos traducir un lenguaje, en primer lugar necesitamos conocer el
diccionario para entender el significado de las palabras. En este caso, el diccionario se conoce como código
genético, que es la correspondencia entre la información contenida en el ARNm y el tipo de aminoácido que
se añade a la proteína durante su síntesis. En el ARNm, las instrucciones están compuestas por palabras
de tres letras, es decir, cada tres nucleótidos forman una palabra que instruye a la maquinaria de síntesis
proteica a añadir un aminoácido concreto. Estas palabras de tres letras se denominan codones. Es fácil
calcular el número posible de palabras de tres letras que se pueden formar con un alfabeto de cuatro letras
(A, C, G y T): 43, es decir 64 palabras distintas. Sin embargo, sólo hay 20 aminoácidos esenciales en las
proteínas, por lo que en teoría sólo serían necesarios 20 codones. Teniendo en cuenta las palabras palabras
necesarias para la instrucción de iniciar la transcripción (AUG) y de terminarla (UAG, UAA, UGA), todavía
tenemos la posibilidad de codificar un mismo aminoácido con varios codones distintos. Para indicar este
fenómeno se dice que el código genético es degenerado, en el sentido de que varias palabras a veces
codifican el mismo aminioácido. Por ejemplo, algunos aminoácidos como la leucina están codificados por 6
codones diferentes.
La Figura 1.13 muestra el código genético, con la tabla de equivalencias entre
los distintos aminoácidos y los codones que los codifican.
10
GENÉTICA HUMANA
El hecho de que el código genético utilice palabras de tres letras implica que cualquier secuencia anónima,
cuyo significado no conocemos, podría dar lugar al menos a tres proteínas distintas dependiendo del punto
de
inicio
de
la
traducción.
En
efecto,
cualquier
secuencia
(supongamos
la
secuencia
5'-
ACGACTGCGTACACGTC-3', por ejemplo) puede dividirse en bloques de tres palabras que configurarán
instrucciones distintas si comenzamos a contar desde el primer nucleótido (ACG, ACT, GCG, etc en nuestro
ejemplo), desde el segundo (CGA, CTG, CGT, etc) ó desde el tercero (GAC, TGC, GTA, etc). Como puede
observarse, las proteínas codificadas en cada caso tienen una secuencia de aminoácidos diferente. Cada una
de estas posible formas de leer una secuencia codificante se denomina marco de lectura, y siempre
existen tres marcos de lectura posibles (en secuencias de una sola hebra) porque el cuarto marco de lectura
es idéntico al primero, el quinto al segundo, etc. Esto plantea el problema de cómo reconoce la célula cuál
es el marco de lectura que debe usar para sintetizar la proteína correcta. Esto se soluciona de dos formas:
en primer lugar, por la existencia de un codón de inicio (AUG, que codifica para el aminoácido metionina),
y en segundo lugar porque sólo uno de los tres marcos de lectura (llamado por eso "abierto") da lugar a una
proteína de longitud adecuada, ya que en los otros dos marcos de lectura aparecen codones de parada y las
proteínas codificadas resultarían muy cortas y sin funcionalidad. En eucariotas, el codón de inicio está
incluido en una secuencia consenso definida por Marilyn Kozak, que es 5'-C[A/G]CCAUGG-3'. El marco de
lectura abierto quedará definido, por tanto, cuando el codón de inicio vaya seguido por un número suficiente
de codones codificantes hasta llegar a un codón de parada. Es importante tener en cuenta que la traducción
no comienza al principio del ARNm, y tampoco termina al final del mensajero. De hecho, en el gen y en el
ARNm se pueden definir dos regiones no-traducidas, una en dirección 5' al inicio de la traducción y otra
desde el codón de parada hasta el final, que flanquean la región codificante (el marco de lectura abierto). La
región no traducida 5' (RNT-5', en inglés UnTranslated Region ó 5'-UTR) se extiende desde el inicio del
ARNm (la caperuza) hasta el inicio de la traducción (codón de iniciación); la RNT-3' (en inglés 3'-UTR) se
extiende desde el codón de parada hasta el inicio de la cola poli(A).
La Figura 1.14 muestra una secuencia de ADN con los distintos marcos de
lectura posibles en el ARNm, señalando además las regiones no traducidas.
70
80
90
100
110
120
----:----|----:----|----:----|----:----|----:----|----:----|
atgTGGTTTTCTGTCCACTTCCCCTatgCAGGTGTCCAACGGATGTGTGAGTAAAATTCT
M W F S V H F P Y A G V Q R M C E * N S
C G F L S T S P M Q V S N G C V S K I L
V V F C P L P L C R C P T D V * V K F W
130
140
150
160
170
180
----:----|----:----|----:----|----:----|----:----|----:----|
GGGCAGGTATTACGAGACTGGCTCCATCAGACCCAGGGCAATCGGTGGTAGTAAACCGAG
G Q V L R D W L H Q T Q G N R W * * T E
G R Y Y E T G S I R P R A I G G S K P R
A G I T R L A P S D P G Q S V V V N R E
La maquinaria que lleva a cabo la traducción está constituida básicamente por dos elementos: los ribosomas
y los ARN de transferencia. El ribosoma es una partícula compleja formada por subunidades de naturaleza
ribonucleoproteica. En eucariotas, el ribosoma consta de una subunidad pequeña (coeficiente de
CAPÍTULO 1: EL FLUJO DE LA INFORMACIÓN GENÉTICA
11
sedimentación 40S) formada por un ARN y unas 30 proteínas, y otra subunidad grande (60S) formada por 3
ARN y unas 50 proteínas. Los ARN transferentes (ARNt) son pequeñas moléculas de ARN que llevan en
uno de sus extremos un aminoácido, y actúan como los adaptadores que leen la información de cada codón
y la transforman en un aminoácido específico. Aunque se representan habitualmente con forma de trébol,
en realidad están doblados en forma de L. Las dos regiones más importantes de un ARNt son el anticodón y
el extremo 3', que termina en los nucleótidos 5'-CCA-3' y lleva el aminoácido correspondiente. El anticodón
está formado por los tres nucleótidos que se emparejan con el codón por complementariedad, ya que la
secuencia del codón y la del anticodón son complementarias (ambas en dirección 5' 3'). Este
emparejamiento no necesita ser siempre perfecto, sino que en ocasiones se permite un cierto "tambaleo"
cuando uno de los tres nucleótidos no forma un emparejamiento perfecto tipo Watson-Crick; precisamente,
esto es lo que permite que varios codones sean leídos por un mismo anticodón.
La Figura 1.15 muestra un ARNt, señalando el anticodón unido al codón.
El proceso de traducción comienza con la fase de iniciación, mediante la unión de la subunidad pequeña
del ribosoma a la caperuza del ARNm maduro que proviene del proceso de ayuste. A continuación, la misma
subunidad ribosomal se desplaza por el ARNm hasta encontrar el codón de iniciación apropiado, momento
en que se unen el ARNtMet (el ARN transferente que lleva el aminoácido Metionina) y la subunidad ribosomal
grande. El bolsillo del ribosoma donde está unido este primer ARNt se llama sitio A (aminoacil). En este
proceso participan también varios factores de iniciación (eIF1 a eIF6, del inglés eukaryotic initiation factor).
La segunda fase de la traducción se llama elongación, y consiste en un proceso cíclico por el que el
ribosoma se desplaza tres nucleótidos y el ARNt que ocupaba el sitio A pasa a ocupar otra región del
ribosoma llamada sitio P (peptidil). Gracias a este movimiento, el siguiente codón del ARNm queda dentro
del sitio A, a donde acude otro ARNt con un anticodón complementario al nuevo codón. A continuación, la
cadena peptídica que "cuelga" del ARNt que ocupa el sitio P es transferida al aminoácido del ARNt que ocupa
el sitio A, con lo que la cadena polipeptídica se alarga en un aminoácido. Estos procesos están ayudados y
catalizados por los propios ARN ribosomales y por dos factores de elongación (eEF1 y eEF2, del inglés
eukaryotic elongation factor). La terminación de la traducción tiene lugar cuando alguno de los tres
codones de parada ocupa el sitio A, porque en vez de unirse un ARNt acude un factor de terminación (eRF1
y eRF3 en eucariotas, del inglés eukaryotic release factor).
La Figura 1.16 contiene un enlace a un video que muestra el proceso de
traducción.
La traducción completa el proceso de expresión génica. Aunque actualmente se está reconociendo el papel
de los ARN no codificantes, que se transcriben y son procesados pero no se traducen en proteínas, el
aforismo "un gen, una proteína" sigue siendo válido en la mayoría de los casos. Igualmente, el "dogma
central de la biología molecular" (es decir, la vía ADN  ARN  Proteína) no siempre se cumple, porque
algunos virus y otros organismos tienen un genoma con ARN que se retro-transcribe a ADN. En cualquier
caso, las nociones y mecanismos que se han repasado en este capítulo constituyen el punto básico de
arranque para comprender la naturaleza molecular de los genes y su función como portadores de
información biológica.
12
GENÉTICA HUMANA
CAPÍTULO 2: EL ADN EN EL NÚCLEO
13
Capítulo 2. El ADN en el núcleo de la célula eucariota.
La cromatina durante el ciclo celular. Replicación de la cromatina en
interfase. Formación y segregación de los cromosomas durante la mitosis.
Gametogénesis y meiosis. Recombinación a nivel molecular.
La cromatina durante el ciclo celular
En las células somáticas que tienen núcleo, la molécula de ADN está presente en una forma peculiar llamada
originalmente cromatina. Por la estructura de la doble hélice del ADN, sabemos que la distancia entre
nucleótidos es de 0,34 nm; si el genoma humano haploide tiene 3x109 pares de bases, la longitud total
del genoma en forma de doble hélice lineal sería algo superior a 1 metro, y además cada núcleo contiene
dos copias del genoma. Todo este material debe entrar en el núcleo de una célula eucariota, cuyo diámetro
medio es de 5 m. Esto significa que el ADN ha de adoptar un alto grado de empaquetamiento para poder
alojarse dentro del núcleo. Este empaquetamiento se lleva a cabo mediante la unión de la doble hélice con
varios tipos de proteínas para dar lugar a una estructura que es, precisamente, la cromatina.
Las células eucariotas, al proliferar, siguen una serie de etapas en las que se llevan a cabo los procesos
necesarios para dar lugar a dos células hijas: duplicar los componentes celulares, segregarlos espacialmente
y dividir la célula de modo que las dos células resultantes lleven todos los ingredientes necesarios para su
correcto funcionamiento. Estas etapas deben completarse en orden, de un modo altamente regulado, y
constituyen lo que se llama ciclo celular. En cada ciclo celular se distinguen por tanto varias fases: la
interfase (etapa en la que la célula duplica su contenido), la mitosis (etapa en la que los componentes se
separan a polos opuestos de la célula) y citoquinesis (separación física de las dos células hijas).
Probablemente sea la cromatina el componente celular en el que es más importante la duplicación y
segregación correctas, ya que esto va a asegurar que la información genética se transmita sin alteraciones.
Por tanto, es importante saber cómo se comporta la cromatina en las distintas etapas del ciclo celular.
La Figura 2.1 muestra las distintas fases del ciclo celular de una célula
eucariota y los cambios que sufre la cromatina.
Durante la interfase, que es la etapa más larga del ciclo, la cromatina está sujeta a un grado de
empaquetamiento de unas 2000 veces, es decir, lo que en su estado natural ocuparía un tamaño de
2000 m se reduce a un tamaño de 1 m. Esto se consigue por la unión de la doble hebra de ADN con unas
proteínas básicas llamadas histonas, cuyos grupos positivos interaccionan con los grupos negativos del
esqueleto fosfato del ADN. Hay 5 tipos principales de histonas, llamadas H1, H2A, H2B, H3 y H4, que se
asocian entre sí para formar un octámero: dos moléculas de H3 junto con dos moléculas de H4 forman un
tetrámero, y dos dímeros H2A/H2B forman otro tetrámero; ambos tetrámeros se asocian para formar un
núcleo proteico (octámero) alrededor del cual se enrolla la molécula de ADN. En concreto, 146 pares de
bases de ADN dan 1,65 vueltas alrededor del octámero, y sobre este complejo se une la histona H1.
Esta estructura, de unos 10 nm de diámetro, es lo que se conoce con el nombre de nucleosoma, y es la
unidad básica de organización de la cromatina. Los nucleosomas están unidos entre sí por el filamento de
ADN que se va enrrollando a su alrededor, como bolas en una cuerda, y esto da lugar a la fibra de
cromatina de 10 nm. En esta estructura, unos 200 pares de bases ocupan 10 nm, lo que significa un grado
de empaquetamiento de unas 6 veces respecto al tamaño lineal que ocuparía un fragmento de ADN de
esa longitud (200 X 0,34 nm = 64 nm).
14
GENÉTICA HUMANA
La Figura 2.2 muestra algunos modelos tridimensionales de un nucleosoma.
En condiciones fisiológicas, la fibra de 10 nm sufre un segundo grado de enrollamiento sobre sí misma para
dar lugar a una estructura en forma de solenoide, con 6 nucleosomas por vuelta. Esta configuración
constituye la fibra de 30 nm, en la que el grado de empaquetamiento del ADN es de unas 40 veces.
La fibra de 30 nm sufre diferentes grados de empaquetamiento durante interfase y, especialmente, en la
mitosis, en la que la cromatina alcanza su empaquetamiento máximo (unas 10.000 veces) y da lugar a las
estructuras visibles que llamamos cromosomas. Estos tipos de alto grado de enrollamiento se consiguen
porque la fibra de 30 nm forma asas que se unen por su base a una estructura proteica que sirve como
andamio. El andamio ("scaffold" en inglés) está constituido por proteínas no histonas, de las que las
principales son la Sc1 (idéntica a la topoisomerasa II) y la Sc2 ó SMC2, que pertenece a una familia de
proteínas llamada SMC (Structural Maintenance of Chromosomes, en inglés). Estas proteínas cumplen
también un papel importante en el mantenimiento de la condensación de la cromatina (de ahí que también
se les llame condensinas). Las asas de la fibra de 30 nm se unen al andamio mediante unas secuencias
ricas en Adeninas y Timinas llamadas SAR (Scaffold Attachment Region en inglés), que tienen gran afinidad
por las proteínas del andamio. La estructura que resulta de este enrollamiento da lugar a una fibra de unos
300 nm de grosor, en la que el grado total de empaquetamiento del ADN es de unas 2.000 veces. Las SAR
son regiones importantes, dispersas por el genoma, que flanquean genes y a menudo se asocian con los
orígenes de replicación que veremos más adelante, por lo que se piensa que pueden jugar un papel
importante en la función y estructura de la cromatina. Finalmente, el empaquetamiento máximo de la
cromatina durante la mitosis se consigue al espiralizarse la fibra de 300 nm para dar lugar a una estructura
de 600 nm de grosor (una cromátide) en la que el ADN alcanza ya un grado de empaquetamiento de
10.000 veces.
La Figura 2.3 muestra los distintos grados de empaquetamiento de la
cromatina.
Doble hélice (2 nm)
Nucleosoma
Fibra de 10 nm
Fibra de 30 nm
Solenoide
Replicación de la cromatina en interfase
La interfase se subdivide en tres fases, de las que la más importante es la fase de síntesis (fase S). En esta
fase tiene lugar la duplicación de los componentes celulares, incluyendo la cromatina. La fase S viene
CAPÍTULO 2: EL ADN EN EL NÚCLEO
15
precedida y seguida por dos breves fases G (de "gap", hueco ó hiato), fase G1 y fase G2 respectivamente.
Uno de los principales procesos que tienen lugar durante la fase S es la duplicación del contenido total de
ADN del núcleo, que se lleva a cabo mediante la replicación del ADN y el ensamblaje en nucleosomas
para dar lugar a la nueva cromatina. El proceso de replicación del ADN ya había sido sugerido por Watson y
Crick en su descripción del ADN, al darse cuenta que la estructura de la doble hélice y la complementariedad
de bases permitía un mecanismo sencillo de copia. Aunque durante algunos años se discutió cómo podría
funcionar este mecanismo, Matthew Meselson y Franklin Stahl demostraron que el ADN se replica de
modo semi-conservativo, es decir, que cada una de las nuevas moléculas lleva una cadena de la molécula
original y otra cadena nueva, sintetizada tomando como molde la cadena complementaria. Posteriormente
se fueron descubriendo los detalles del proceso, e identificando los distintos componentes que lo llevan a
cabo.
La Figura 2.4 muestra esquemáticamente la replicación semiconservativa, y
contiene un enlace a un sitio educativo que explica los experimentos de
Meselson y Stahl.
En eucariotas, la replicación comienza en múltiples sitios de una misma molécula de ADN a la vez, llamados
orígenes de replicación. Dada la velocidad de copia de las polimerasas, una sola molécula de ADN
polimerasa tardaría varios días replicar un cromosoma completo, por lo que de hecho la replicación de la
cromatina se lleva a cabo en varios miles de orígenes de replicación a la vez. De todas formas, aunque
todos los orígenes funcionan durante la fase S, no todos se ponen en marcha a la vez: en algunos orígenes
la replicación comienza al principio de la fase S (replicación temprana) y en otros comienza hacia el final
(replicación tardía). En cada origen de replicación se forma una burbuja de replicación, por acción de
unas helicasas que abren la doble hélice para permitir la unión de las enzimas que llevarán a cabo la
síntesis, que son las polimerasas de ADN. Este primer paso está sujeto a una fina regulación, ya que un
mismo origen sólo se replica una vez en cada ciclo celular. De hecho, aunque la replicación a partir de
un origen ya haya terminado y ése mismo origen pudiese volver a iniciar otro ciclo de replicación en la
misma fase S, esto nunca sucede. Esta regulación se lleva a cabo por la acción de varios complejos
proteicos como el ORC (del inglés Origin Recognition Complex), el complejo de proteínas MCM, y la
geminina.
En cada burbuja se forman dos horquillas de replicación, apuntando en direcciones contrarias. Como los
eventos que tienen lugar en cada horquilla son idénticos, basta estudiar lo que sucede en una de ellas. En
primer lugar, una proteína de unión a ADN mono-catenario, llamada RPA (Replication Protein A, en inglés)
se une a las cadenas que han sido separadas por las helicasas, y esto ayuda a mantener la burbuja de
replicación abierta. A continuación, a cada una de las cadenas se une una enzima llamada primasa, que es
una ARN polimerasa dependiente de ADN (es decir, sintetiza ARN tomando como molde ADN). La primasa
sintetiza un pequeño ARN que actúa como cebador (primer, en inglés, de ahí su nombre) para iniciar la
síntesis de ADN. Las polimerasas de ADN dependientes de ADN llevan a cabo la síntesis de ADN
elongando la cadena a partir del cebador de ARN generado previamente. Esta síntesis tiene lugar de modo
diferente en cada una de las cadenas, debido a la distinta orientación que tienen. En la cadena que discurre
en sentido 3' 5', el cebador y la nueva cadena sintetizada sobre ella discurrirán en sentido 5' 3', que es
el único modo en que pueden sintetizar ADN las polimerasas. Por tanto, en esta cadena, llamada cadena
guía (leading strand en inglés) se puede sintetizar el nuevo ADN de modo continuo. Por el contrario, la otra
cadena de la molécula original discurre en sentido 5'3', por lo que la nueva cadena sintetizada a partir de
ésta (cadena retrasada, o lagging strand en inglés) debería crecer en sentido 3'5'. Como esto no es
posible, ya que las polimerasas son incapaces de sintetizar ADN de esta forma, lo que sucede es que se
16
GENÉTICA HUMANA
generan varios cebadores de ARN a pequeñas distancias, sintetizándose el ADN a partir de cada uno de ellos
en sentido 5'3'. El resultado neto es la síntesis semi-discontínua de la cadena retrasada en sentido
3'5' gracias a la síntesis de pequeños fragmentos (cada uno de los cuales fue sintetizado en sentido
5'3'). Estos fragmentos se denominan fragmentos de Okazaki, y tienen una longitud entre 100 y 1000
nucleótidos en eucariotas. A medida que la horquilla de replicación avanza, las helicasas continúan abriendo
la doble hélice (ayudadas por otras enzimas llamadas topoisomerasas, que relajan la tensión generada
por delante de la horquilla). Tras la síntesis en ambas cadenas, otras enzimas eliminan los fragmentos de
ARN que habían servido de cebadores, rellenan los huecos que quedan, y finalmente unas ligasas sellan los
últimos enlaces fosfo-di-éster para obtener una cadena continua sin solución de continuidad.
Figura 2.5 En estas animaciones se muestra esquemáticamente el proceso de
síntesis de la cadena guía y de la cadena retrasada durante la replicación del
ADN.
Aunque los complejos proteicos que intervienen en la replicación del ADN en eucariotas no han sido
caracterizados con tanta profundidad como en procariotas, hoy en día se conocen bastantes detalles. De
entre las diferentes ADN polimerasas identificadas en eucariotas, la síntesis de los cebadores de ARN es
obra de la primasa, que actúa junto con la ADN polimerasa . Ésta, prolonga el cebador de ARN unos
pocos nucleótidos. El factor C de la replicación (RFC) desplaza la polimerasa -primasa, una vez que se
ha formado el cebador de ARN, y trae consigo otra proteína llamada PCNA (Proliferating Cell Nuclear
Antigen, en inglés), que a su vez es la responsable de reclutar la polimerasa que lleva a cabo la síntesis de
ADN. Éstas son la ADN polimerasa  (en la cadena retrasada) y la ADN polimerasa  (en la cadena
guía). El complejo PCNA-Polimerasa también incluye una endonucleasa (FEN1 en eucariotas) que es la
responsable de degradar los cebadores de ARN que seon desplazados por la polimerasa. Finalmente, la
ligasa que culmina el proceso en eucariotas es la ADN ligasa I.
La Figura 2.6 contiene un video que explica el proceso de replicación de la
cadena retrasada, con los distintos complejos proteicos implicados.
Es importante entender que la replicación del ADN no se refiere sólo a la duplicación de la doble cadena,
sino que implica también el ensamblaje de la cromatina a medida que el ADN se va replicando. De
hecho, durante la replicación sólo se altera el empaquetamiento de la cromatina en una pequeña región: se
estima que sólo los dos nucleosomas por delante de la horquilla de replicación se ven afectados por el
avance de la maquinaria replicativa, y que unos 300 nucleótidos por detrás de la horquilla ya se vuelven a
ensamblar los nuevos nucleosomas para comenzar a formar las dos nuevas fibras de cromatina. Este reensamblaje de la cromatina se produce en varias etapas, comenzando con la unión del tetrámero H3-H4
en primer lugar, seguida de la deposición del tetrámero H2A/H2B; finalmente se añade la histona H1.
Lógicamente, es muy importante mantener la "memoria" acerca del estado en que estaba una región de
cromatina, para que las fibras hijas que se producen tras la replicación mantengan el mismo estado que
tenía la fibra original. Como veremos, esto se consigue por modificaciones químicas de algunos aminoácidos
de las histonas, que se distribuyen por igual desde los nucleosomas de la fibra original a los nucleosomas de
las fibras recién formadas.
En el caso de moléculas lineales de ADN, como los cromosomas, la replicación de los extremos
terminales presenta un problema particular, puesto que el cebador de ARN localizado en el extremo de la
cadena retrasada no puede ser reemplazado por ADN (como ocurre en la replicación normal). Por tanto, los
CAPÍTULO 2: EL ADN EN EL NÚCLEO
17
cromosomas estarían sujetos a una degradación progresiva de sus extremos con cada división celular, y
esto sería letal en células que se dividen muchas veces a lo largo de la vida de un individuo. Para evitar
esto, los cromosomas de eucariotas tienen en sus extremos unas estructuras especiales, llamadas
telómeros, que protegen los extremos libres y evitan la erosión asociada con la replicación. Estas
estructuras están formadas por la repetición una pequeña secuencia que está repetida múltiples veces al
final del extremo 3' de una de las cadenas de la doble hélice, cadena que por tanto será más larga que la
otra. Estas repeticiones, que en humanos están formadas por el hexanucleótido TTAGGG, son añadidas por
la acción de un enzima denominada telomerasa, que consta de un componente ARN y de un componente
enzimático con actividad polimerasa de ADN dependiente de ARN. Usando el componente ARN como molde,
la telomerasa va añadiendo nuevas repeticiones TTAGGG al extremo 3' de una de las cadenas del
cromosoma. Esto posibilita que, durante la replicación, se sintetice el cebador de ARN sobre las repeticiones
teloméricas y no se pierda material genético propio del cromosoma. Las repeticiones que se pierden por
causa de la replicación, son después añadidas por acción de la telomerasa, lo que asegura la integridad de
los cromosomas durante toda la vida de la célula.
La Figura 2.7 incluye un video que ilustra el problema de la replicación de los
extremos y la acción de la telomerasa.
Una consecuencia importante de la replicación es que el contenido total de ADN de la célula se duplica
antes de que los cromosomas se hagan visibles y se separen en la mitosis, como veremos a
continuación. Esto es precisamente lo que hace que cada cromosoma, durante la mitosis, esté compuesto
por dos cromátides hermanas pegadas. En este sentido, es importante evitar la confusión entre el número
de cromosomas y el contenido total de ADN de una célula. El número haploide de cromosomas (número de
cromosomas distintos, que es característico de cada especie) se representa por la letra n; una célula
somática tiene un número diploide (2n) de cromosomas, ya que tiene 2 copias de cada cromosoma (n
parejas de cromosomas homólogos). Antes de entrar en la fase S, una célula somática tiene un número
2n de cromosomas (aunque no se ven en su forma típica, por estar la cromatina poco condensada) y un
contenido total de ADN correspondiente a una cromátide por cromosoma: esto se representa por la cantidad
de ADN 2C. Al final de la replicación del ADN, esa célula sigue teniendo 2n cromosomas (todavía invisibles)
pero ahora tiene un contenido de ADN igual a 4C, ya que tenemos dos cromátides por cromosoma. Tras la
mitosis, la segregación de las cromátides hermanas tiene como resultado que cada una de las células hijas
lleva otra vez 2n cromosomas y un contenido de ADN igual a 2C. De este modo, se mantiene el número de
cromosomas y la cantidad total de ADN tras las sucesivas divisiones celulares.
Formación y segregación de los cromosomas durante la mitosis
La cromatina es una estructura dinámica cuyo grado de empaquetamiento es máximo durante la mitosis,
y por eso en esta fase del ciclo celular se puede ver en una forma especialmente condensada que da lugar a
los cromosomas. Como hemos visto, esta condensación se produce porque la fibra de cromatina de 300
nm se enrolla en forma de espiral, proporcionando un grado de empaquetamiento unas 5 veces mayor al
observado durante la interfase. La mitosis es el proceso de división de las células somáticas, fundamental
en la proliferación celular que tiene lugar durante el desarrollo embrionario, el crecimiento y el
mantenimiento de los tejidos. Supone una reorganización drástica de todos los componentes celulares, pero
muy especialmente de los cromosomas, cuya segregación a cada una de las células hijas debe ser muy
precisa y estar finamente regulada y coordinada con la separación física de las nuevas células (citoquinesis).
Durante la mitosis, la maquinaria celular se especializa en llevar a cabo los distintos procesos que tienen
18
GENÉTICA HUMANA
lugar en la célula: condensación de la cromatina, formación del huso mitótico, segregación de los
componentes y fisión celular.
La primera fase de la mitosis (profase), comienza con la condensación de la cromatina, la ruptura de la
envuelta nuclear y el desarrollo del huso mitótico. Es importante recordar que la cromatina ha sido replicada
en la fase S de la interfase previa, por lo que cada cromosoma está ahora formado por dos cromátides
hermanas. Los microtúbulos se unen a los quinetocoros, estructuras proteicas formadas sobre los
centrómeros de cada cromosoma, y comienzan a transportar a los cromosomas hacia el plano ecuatorial del
huso. En la fase siguiente (metafase) cada cromosoma está unido a microtúbulos procedentes de los dos
polos de la célula, de modo que todos los cromosomas están en el ecuador del huso mitótico sometidos a
fuerzas tensionales opuestas. Los mecanismos moleculares que regulan la cohesión de cromátides
hermanas comienzan a conocerse cada vez mejor, y su implicación en patología humana está adquiriendo
mayor relevancia. Por ejemplo, se han identificado las proteínas cromosómicas necesarias para mantener la
cohesión de cromátides hermanas, que se denominan cohesinas. En eucariotas funcionan como cohesinas
al menos cuatro miembros de la familia SMC (Structural Maintenance of Chromosomes), y en Xenopus
(sapo) se ha identificado un complejo que es necesario para la cohesión y que está formado por SMC1 y
SMC3 junto con SCC1 (Sister Chromatid Cohesion 1). La cohesión se establece en la fase S del ciclo celular,
durante la replicación del ADN, aunque las cohesinas estaban ya presentes en la cromatina. Al replicarse el
ADN, ambas cromátides quedan unidas por las cohesinas en toda su longitud, distinguiéndose dos tipos de
cohesión: la cohesión en los centrómeros y la cohesión en los brazos cromosómicos. Ambos tipos
de cohesión están mediados por cohesinas, pero los procesos que los regulan son algo diferentes. El
mantenimiento de esta cohesión durante metafase es muy importante, porque es precisamente el balance
entre las fuerzas de los microtúbulos y la cohesión de ambas cromátides lo que permite el alineamiento de
los cromosomas en el plano ecuatorial: la tendencia de los microtúbulos a separar las cromátides se ve
contrarrestada por la cohesión que las mantiene unidas, y gracias a esta cohesión se genera la tensión
necesaria para formar la placa metafásica. Es precisamente la pérdida brusca de cohesión lo que permite la
separación de las cromátides. Lógicamente, un componente fundamental en estos procesos es el
quinetocoro, que en definitiva es el punto de cada cromosoma donde se anclan los microtúbulos. Existe en
células eucariotas un sistema que comprueba que todos los quinetocoros estén unidos a microtúbulos y
activa un punto de control que impide la separación de las cromátides antes de conseguir la perfecta
unión de todos los quinetocoros a sus microtúbulos respectivos. La metafase va seguida por la anafase, en
la que tiene lugar la segregación de las cromátides hermanas de cada cromosoma hacia polos opuestos de
la célula. La separación simultánea de 46 pares de cromátides hermanas en la transición metafase-anafase
es un momento crucial del ciclo celular, y por tanto está finamente regulado. Por ejemplo, es crítico que la
cohesión se pierda en el momento adecuado, para que cada cromátide pueda migrar a una célula hija sin
errores. En general, se observa que primero se pierde la cohesión en los centrómeros, y a medida que los
microtúbulos van "tirando" de los quinetocoros se va perdiendo la cohesión en los brazos. La separación se
lleva a cabo mediante la degradación de las cohesinas. La última fase de la mitosis es la telofase, en la
que los cromosomas vuelven a descondensarse y se forma la envoltura nuclear alrededor de cada uno de
los nuevos núcleos que se han formado en cada polo de la célula. Terminada la mitosis, el proceso de
división celular se completará con la citoquinesis, en la que los componentes celulares se reordenan y se
reorganiza el citoesqueleto para facilitar la divisón física de la célula en dos células hijas.
La Figura 2.8 contiene un video que ilustra las principales fases de la mitosis.
Dada la importancia de la separación de las cromátides hermanas en anafase, se ha investigado mucho en
torno a su regulación. Se sabe que la degradación de las cohesinas se lleva a cabo por dos mecanismos
distintos: fosforilación (mediada por la quinasa Polo) de algunos componentes, y proteolisis de otros. Las
CAPÍTULO 2: EL ADN EN EL NÚCLEO
19
proteínas implicadas en la proteolisis de la cohesinas se llaman separinas (ó separasas). Se ha
comprobado que las separinas son capaces de romper el complejo cohesina porque degradan la proteína
SCC1 (una cohesina) durante el comienzo de la anafase, permitiendo la separación de las cromátides por la
fuerza que ejercen los microtúbulos. ¿Cómo se activan las separinas en el momento exacto de la anafase?
Esto se ha resuelto gracias a la identificación de las securinas, proteínas que inhiben la acción proteolítica
que ejercen las separinas sobre las cohesinas. Por tanto, durante la mitosis las securinas están unidas a las
separinas y así inhiben su acción, de modo que el complejo cohesina permanece intacto y las cromátides
permanecen unidas. La disociación de las cohesinas se produce por la degradación súbita de las securinas al
comienzo de la anafase, de manera que las separinas quedan libres y pueden cortar por proteolisis el
complejo cohesina. El evento crucial, por tanto, es la degradación de securinas, degradación que está
mediada por un complejo proteico llamado APC (Anaphase Promoting Complex) que posee actividad
ubiquitina-protein-ligasa y promueve la degradación de diversas proteínas al comienzo de la anafase.
Lógicamente, estos procesos no deben comenzar hasta que todos los quinetocoros están correctamente
unidos a los microtúbulos del huso, pues de lo contrario la segregación de las cromátides no sería correcta.
Por tanto, existe también un mecanismo de señalización que detecta si todos los quinetocoros han sido
correctamente unidos por microtúbulos y envía una señal de activación del APC, para que dé comienzo la
pérdida de cohesión.
En la Figura 2.9 se explica el mecanismo de degradación de las cohesinas.
Gametogénesis y meiosis
En organismos de reproducción sexual, la formación de los gametos implica un modo de división celular
diferente al de las células somáticas. Los gametos deberán poseer una sola copia de cada cromosoma, de
modo que el cigoto resultante de la unión del gameto masculino y del gameto femenino en la fertilización
sea diploide (con un cromosoma de origen paterno y otro cromosoma de origen materno en cada par
cromosómico). Para obtener un número haploide (n) de cromosomas en los gametos, el proceso de
formación de los mismos (gametogénesis) tiene unas características especiales. La principal peculiaridad
es la existencia de un tipo distinto división celular en el que una célula diploide (2n) replica su ADN una vez
(duplicando su contenido total en ADN de 2C a 4C) pero experimenta dos divisiones cromosómicas; esto
tiene como consecuencia que los gametos masculino (espermatozoide) y femenino (oocito) llevan un
número haploide de cromosomas (n) y un contenido total de ADN igual a C (una cromátide por
cromosoma). Este modo de división celular se denomina meiosis, y tiene además otras características muy
importantes para la transmisión de la variabilidad genética. En ambas líneas germinales, masculina o
femenina, la gametogénesis comienza cuando los gonocitos experimentan una serie de divisiones mitóticas
típicas en las que las células van madurando hasta llegar a formar las gonias (espermatogonias u oogonias,
respectivamente) y los gametocitos primarios, que son células diploides (2n). A partir de este momento,
las células replican su ADN en la fase S y a continuación entran en meiosis, en vez de dividirse por
mitosis.
En la Figura 2.10 se presenta un esquema de la gametogénesis.
20
GENÉTICA HUMANA
GAMETOGÉNESIS
Gametocitos Primarios
2n / 4C
Gametocitos Secundarios
n / 2C
Espermatocitos Secundarios
Oocito Secundario
Corpúsculo
Polar
Primario
Gametos
n/C
Espermatozoides
Ovulo
Corpúsculo
Polar
Secundario
La meiosis incluye en realidad dos distintas divisiones cromosómicas, por lo que suele separarse en dos
fases llamadas meiosis I (ó primera división meiótica) y meiosis II (segunda división meiótica). La
meiosis I es la más importante de las dos, y comienza con una profase larga, complicada y claramente
distinta de la profase de la mitosis. Esta profase de la meiosis I (llamada, por tanto, profase I) comienza
con la condensación de la cromatina que, no lo olvidemos, se había replicado en la fase S precedente.
Ambas cromátides están íntimamente unidas formando un único filamento, que se une por sus extremos a
la membrana nuclear. Esta primera parte de la profase I se llama leptoteno. En la siguiente etapa, llamada
cigoteno, los cromosomas homólogos se emparejan longitudinalmente con gran exactitud, de manera que
las secuencias de cada uno de los dos homólogos quedan perfectamente alineadas. La unión entre los
cromosomas de cada par se hace progresivamente más fuerte, dando lugar a un fenómeno que se conoce
como sinapsis. La sinapsis se mantiene gracias a la formación del complejo sinaptonémico. La profase I
continúa con la siguiente etapa, paquiteno, en la que los cromosomas se condensan todavía más y cada
par de homólogos apacece como un bivalente (una estructura formada por dos cromosomas) ó tétrada
(por estar formada por cuatro cromátides). De todas formas, el evento más importante de la etapa de
paquiteno es el intercambio de material genético entre cromosomas homólogos, a través del proceso de
recombinación que estudiaremos más adelante. En la siguiente etapa, la de diploteno, desaparece el
complejo sinaptonémico y los cromosomas homólogos comienzan a separarse. Recordemos que hasta este
momento la célula es diploide (2n) con contenido 4C de ADN, al tener dos cromátides por cromosoma.
Durante la separación de los cromosomas homólogos en diploteno, las dos cromátides de cada cromosoma
permanecen todavía unidas entre sí. Sin embargo, debido al intercambio de material genético precedente, la
separación pone de manifiesto los puntos en los que se produjo un sobrecruzamiento, ya que esas regiones
forman "puentes" que mantienen unidos a los dos homólogos de cada par e impiden la separación total.
CAPÍTULO 2: EL ADN EN EL NÚCLEO
21
Estos puntos se denominan quiasmas, y han de resolverse de algún modo para que la separación de los
cromosomas pueda completarse. Por tanto, la profase I termina con una etapa corta denominada
diaquinesis, en la que la cromatina alcanza su grado máximo de condensación y los cromosomas aparecen
más cortos y gruesos.
Tras la profase I, los espermatocitos primarios entran ahora en metafase I, en la cual desaparece la
membrana nuclear, se forma el huso y los microtúbulos traccionan por los quinetocoros. Esto hace que los
bivalentes, que llevan los cromosomas parcialmente separados (unidos únicamente por los quiasmas), se
orienten en el ecuador de la célula. Debido a esta configuración, los cromosomas homólogos se sitúan en la
placa metafásica con los centrómeros apuntando cada uno hacia uno de los polos de la célula. En la
anafase I, la tracción de los microtúbulos y la activación del Complejo Promotor de la Anafase permiten
la separación total de cada cromosoma homólogo hacia uno de los polos, fenómeno llamado disyunción.
Finalmente, en la telofase I se han formado ya dos grupos de cromosomas en cada polo de la célula: cada
uno de estos grupos consta de un número haploide (n) de cromosomas, cada uno de los cuales posee dos
cromátides (contenido total de ADN igual a 2C). La meiosis I termina con la citoquinesis, la división física
de las dos células hijas. Esta última fase es diferente en la línea germinal masculina y femenina, porque así
como las células hijas del espermatocito primario son iguales, en el caso de la línea femenina una de las dos
células hijas se lleva casi todo el citoplasma mientras que la otra es mucho menor. Por tanto, en la
espermatogénesis cada esperamatocito primario da lugar a dos espermatocitos secundarios,
mientras en la oogénesis cada oocito primario da lugar a un oocito secundario y a un corpúsculo
polar de primer orden.
La segunda división meiótica, ó meiosis II, es prácticamente igual a una mitosis. La única diferencia
estriba en que la célula que se divide es haploide, mientras que en el caso de la mitosis la célula es diploide.
Por tanto, esta división celular va a separar las dos cromátides que componen cada cromosoma de un
gametocito secundario, para generar gametos con un número haploide de cromosomas (n), cada uno de los
cuales está formado por una sola cromátide (contenido total de ADN igual a C). Como decíamos al principio,
esto asegura que la fecundación da lugar a un cigoto diploide (2n) con contenido de ADN igual a 2C, al
recibir un complemento cromosómico de cada gameto. El modo en que se completa la meiosis es también
diferente en ambos sexos. Así como la espermatogénesis discurre de un modo continuo desde que se
alcanza la madurez sexual, la oogénesis se detiene en profase I, de manera que un alto número de oocitos
primarios permanecen en un estado prolongado de diploteno, llamado dictioteno. Estos oocitos sólo
proseguirán su maduración al llegar la madurez sexual, cuando con cada ciclo menstrual un oocito culmina
la meiosis I y completa también la meiosis II para dar un oocito secundario (óvulo) y un segundo
corpúsculo polar.
La Figura 2.11 incluye un video en el que se muestran esquemáticamente las
distintas fases de la meiosis.
Es importante fijarse en un hecho distintivo de la anafase de la meiosis I, que no comparten ni la
anafase de la meiosis II ni la anafase de la mitosis. Este hecho consiste en que los cromosomas homólogos
se separan pero, al mismo tiempo, las dos cromátides de cada cromosoma, por la acción de unas moléculas
llamadas shugoshinas, deben permanecer unidas por los centrómeros. Esto se consigue porque las
cohesinas centroméricas no son degradadas por las separasas. Las shugoshinas se unen
específicamente a los centrómeros y, por su asociación con una fosfatasa, impiden la fosforilación de las
cohesinas a ese nivel, lo cual a su vez impide que las cohesinas sean degradadas por las separasas.
22
GENÉTICA HUMANA
Después, en la meiosis II, la ausencia de shugoshinas permite una segunda ola de activación de separasas
que finalmente llevará a la separación completa de las dos cromátides de cada cromosoma homólogo.
Al margen de lo dicho en relación con la reducción del número total de cromosomas en los gametos, la gran
importancia de la meiosis reside en que es uno de los principales mecanismos de creación de variabilidad
genética. Esto sucede a dos niveles, primero por la segregación aleatoria de los cromosomas de cada
progenitor a los gametos, y en segundo lugar por el intercambio de material genético que tiene lugar
durante los procesos de recombinación. Respecto a lo primero, es fácil comprender que cada división
meiótica producirá gametos con distintas combinaciones de los cromosomas que estaban en la célula
diploide original, ya que la segregación se produce al azar. Para entender esto es útil imaginarse todos los
cromosomas de una célula diploide como la suma de dos conjuntos haploides, el paterno y el materno. Así,
cada pareja de cromosomas homólogos consta de un homólogo de origen paterno y otro de origen materno.
Cuando los homólogos se separan en la meiosis, no pasan todos los de origen paterno a una de las células
hijas, y todos los de origen materno a la otra; por el contrario, se distribuyen aleatoriamente. Como los
homólogos pueden tener pequeñas diferencias en los alelos presentes para algunos genes, el resultado es
que cada gameto lleva una combinación única de cromosomas de origen paterno y materno
mezclados. La variabilidad que se puede generar por este sencillo mecanismo es altísima, porque con 23
parejas de cromosomas el número de combinaciones posibles es igual a 223, ó lo que es lo mismo
8.388.608. Por lo que respecta al segundo tipo de variabilidad introducida durante la meiosis, en la especie
humana se ha calculado que se producen unos 55 sobrecruzamientos por célula, porque ese es el número
medio de quiasmas que se observan. Esto supone una media de al menos 2 sobrecruzamientos por par
cromosómico, incluidos los cromosomas sexuales. La presencia de estos quiasmas es importante para
mantener los bivalentes unidos hasta anafase I, y asegurar que la disyunción se produce de modo correcto.
Pero además, es probable que el número total de eventos de recombinación sea todavía mayor al número
de quiasmas, porque no todas las recombinaciones producen un sobrecruzamiento (como se verá en el
apartado siguiente). Por tanto, el grado de intercambio de material genético entre cromátides de
cromosomas homólogos es bastante alto, y hace que los cromosomas que finalmente llegan a un gameto
sean ligeramente distintos a los cromosomas que estaban presentes en la célula inicial. Como resultado de
esto, la variabilidad genética generada durante la meiosis es alta, y por eso la probabilidad de que dos
individuos tengan dos descendientes genéticamente idénticos es prácticamente nula. Esto es precisamente
lo que persigue la reproducción sexual: generar descendientes distintos a sus progenitores y distintos entre
sí.
Recombinación a nivel molecular
Uno de los temas más importantes en genética es la caracterización de los mecanismos moleculares por los
que se produce intercambio de material genético entre cromátides durante la meiosis. Distintos modelos
han intentado explicar cómo dos moléculas de ADN homólogas pueden entrecruzarse e intercambiar
material genético. El paso inicial común a todos los modelos propuestos es el alineamiento preciso de
ambas moléculas, precisamente debido a que son cadenas de ADN homólogas, es decir, pertenecientes a
cromosomas homólogos y por tanto con la misma secuencia de nucleótidos. En realidad, hoy sabemos que
ambas moléculas no son absolutamente idénticas, ya que pueden existir diferencias alélicas en su secuencia
(por ejemplo, pequeñas diferencias de un nucleótido). En cualquier caso, el alineamiento de dos secuencias
homólogas es un requisito imprescindible para que se inicie el proceso de recombinación, que se denomina
por eso recombinación homóloga. Dicho alineamiento, como es lógico, se produce durante la profase I de
la meiosis merced al complejo sinaptonémico que mantiene estrechamente unidos los cromosomas
CAPÍTULO 2: EL ADN EN EL NÚCLEO
23
homólogos en toda su longitud. Es lógico pensar que dicha configuración permite que dos moléculas de ADN
de secuencia homóloga se mantengan en contacto.
Los primeros modelos de recombinación proponían que, tras el alineamiento, ambas moléculas de ADN
sufren una mella en una de sus cadenas, exactamente en la misma posición, y esto deja dos cadenas
"libres" que se intercambian entre sí y se unen a la molécula homóloga por complementariedad de bases.
Dado que la generación de dos mellas simultáneas en la misma posición es un evento muy improbable,
Meselson y Radding propusieron otro modelo en el que una sola mella en una de las dos moléculas es
suficiente para iniciar el proceso de recombinación, ya que la cadena libre puede invadir la doble hélice
homóloga. Los estudios llevados a cabo en distintas especies de eucariotas en los últimos años han
demostrado que la recombinación se inicia por la aparición de una rotura completa de una de las dos
moléculas homólogas, es decir, una rotura bi-catenaria (de las dos cadenas de una doble hélice). Dichas
lesiones, llamadas DSB (Double-Strand Break en inglés), se generan con cierta frecuencia en el ADN celular
en respuesta a diversas causas; parece comprobado que la creación específica de un DSB durante profase I
es el proceso iniciador de la recombinación.
Según el modelo actual de recombinación homóloga, en este proceso intervienen una serie de complejos
proteicos:

Complejo RAD50, formado por las moléclulas MRE11, RAD50 y NBS1.

El complejo RAD52, que incluye varios componentes (RAD51, RAD52, RAD54, RAD55 y RAD57 entre
otros).

La molécula RPA (la misma proteína A de la replicación).
Tras la creación de un DSB, los extremos libres son procesados mediante la actividad exonucleasa del
complejo RAD50, que actúa en dirección 5’3’ y por tanto genera extremos libres más largos en la hebra
3'. Este extremo protruyente se recubre de RPA, RAD51 y otras moléculas del complejo RAD51 para
formar un filamento nucleo-proteico. Este filamento tiene la capacidad de invadir la doble hebra homóloga,
abriendo en ella una burbuja, y se empareja a la cadena complementaria que discurre en dirección
antiparalela. A partir de este extremo 3' se extiende la cadena usando la hebra complementaria como
molde, al tiempo que también se extiende también el otro extremo que había quedado libre. Tras una corta
extensión, los extremos libres se unen por acción de una ligasa y esto genera dos estructuras en las que
una hebra salta de una molécula de ADN a la molécula homóloga. Dichas estructuras se denominan
estructuras de Holliday, que fue el primero en proponer su existencia. Es importante tener en cuenta que
si las dos moléculas de ADN no son inicialmente idénticas en su secuencia, durante el proceso de
recombinación se pueden formar moléculas híbridas, en las que ambas cadenas no son idénticas. Dichas
moléculas de ADN se llaman heteroduplex, y son muy importantes porque los desemparejamientos son
corregidos por un mecanismo de reparación que se estudiará en otro capítulo; dicha corrección hace que
una de las dos cadenas se modifique para hacerse perfectamente complementaria a la otra, en un proceso
llamado conversión génica. Como veremos en otras partes de este texto, la conversión génica es un
mecanismo que da lugar a varias enfermedades genéticas en humanos.
Las estructuras de Holliday dan lugar unas estructuras cruciformes formadas por dos moléculas de ADN,
llamadas también estructuras chi, que han de resolverse de algún modo para permitir la separación de las
dos cromátides. La resolución de las estructuras de Holliday puede hacerse según un plano vertical o según
un plano horizontal, y es precisamente el tipo de resolución que se lleva a cabo lo que determina el tipo de
moléculas que se generan. Por ejemplo, si las dos estructuras de Holliday se resuelven según planos
distintos, las moléculas resultantes van a dar lugar a un sobrecruzamiento (la configuración que da lugar
a los quiasmas que se ven en la meiosis); en cambio, cuando las dos estructuras de Holliday se resuelven
24
GENÉTICA HUMANA
según el mismo plano se producirá recombinación sin sobrecruzamiento. A su vez, cada una de estas
dos posibilidades puede darse con ó sin conversión génica, dependiendo de la presencia de heteroduplex
y del modo en que se reparan.
La Figura 2.12 muestra esquemáticamente el modelo de recombinación
iniciado por una rotura bicatenaria en uno de los cromosomas homólogos, así
como la resolución de las estructuras de Holliday y los posibles resultados de
los procesos de recombinación.
h
C
T
G
A
G
G
C
C
h/h
v
h/v
C
T
C
T
G
A
G
A
G
G
G
G
C
C
C
C
NO sobrecruzamiento
SI conversión
NO conversión
SI sobrecruzamiento
Curiosamente, el modelo de recombinación iniciado por una rotura bicatenaria en una cadena es fruto de los
estudios de reparación de este tipo de lesiones en eucariotas. Como veremos en otro capítulo, las roturas
bicatenarias son un tipo frecuente de agresión al ADN, y son reparados en células somáticas precisamente
por un mecanismo de recombinación homóloga que tiene lugar durante la fase S del ciclo celular. En los
últimos años se ha visto que este mismo mecanismo explica también las predicciones acerca de la
recombinación durante la meiosis, y que de hecho la maquinaria proteica responsable es básicamente la
misma. Por tanto, hoy en día se considera como un mismo mecanismo que se ha adaptado a dos
funciones celulares importantes como la reparación del ADN y la generación de variabilidad
genética durante la formación de los gametos. Más recientemente, se ha sugerido que la
recombinación homóloga también puede tener otra función importante: la reiniciación de la replicación
del ADN. A menudo, la horquilla de replicación se para prematuramente durante la síntesis de ADN y toda la
maquinaria replicativa se desensambla; antes se pensaba que estas horquillas interrumpidas se reinician
por el ensamblaje de un nuevo complejo de replicación en ese punto, pero cada vez hay más datos a favor
de la hipótesis de que la replicación se reinicia en esas horquillas por un fenómeno de recombinación
homóloga. Dicha recombinación podría darse entre las dos cromátides hermanas idénticas (la cromátide con
la horquilla interrumpida y la que se ha originado por la replicación hasta ese punto), que sería lo normal, o
bien puede darse entre cromátides de cromosomas homólogos, en cuyo caso se originaría un fenómeno de
recombinación homóloga con posible sobrecruzamiento. De hecho, algunos autores han sugerido que,
CAPÍTULO 2: EL ADN EN EL NÚCLEO
25
originalmente, la principal función del mecanismo de recombinación fue precisamente la reparación de
horquillas de replicación interrumpidas.
26
GENÉTICA HUMANA
CAPÍTULO 3: TÉCNICAS BÁSICAS DE GENÉTICA MOLECULAR
27
Capítulo 3. Técnicas básicas de genética molecular.
Tecnología del ADN recombinante: métodos y usos más frecuentes. Enzimas
de restricción. Amplificación in vitro de ADN (PCR). Secuenciación del ADN.
Técnicas básicas de hibridación de ácidos nucleicos. Microarrays.
Tecnología del ADN recombinante: métodos y usos más frecuentes
A principios de los años 1970 se desarrollaron una serie de técnicas que dieron lugar a lo que se llamó
"ingeniería genética", "clonación molecular" ó "tecnología del ADN recombinante". Básicamente, esta
tecnología nació como respuesta a la necesidad de obtener grandes cantidades de un gen ó genes, o incluso
genomas completos, para poder llevar a cabo los estudios que permitiesen obtener la secuencia de
nucleótidos de un gen concreto, estudiar sus mutaciones, analizar su función, etc. El nombre de clonación
molecular sugiere precisamente la idea de un número grande de copias idénticas, y se utilizaba ya en
biología para designar poblaciones de bacterias o células idénticas ("clones"). Al aplicarlo a la obtención de
copias idénticas de un ácido nucleico, se convirtió en clonación molecular. El primer experimento que
mostró la posibilidad de propagar un fragmento de ADN de eucariotas en una bacteria fue la clonación de
fragmentos del ADN ribosomal de Xenopus laevis dentro de la bacteria E. coli. Desde entonces, la tecnología
del ADN recombinante se ha utilizado con con éxito en muchos campos, desde aplicaciones con fines
industriales (dando lugar a la Biotecnología), hasta la detección de alteraciones genéticas, pasando por la
modificación genética de organismos, la terapia génica y un largo etcétera. En este capítulo recordaremos
los principios generales de las técnicas básicas de biología molecular; otras tecnologías más específicas
utilizadas en Genética Humana, como el diagnóstico molecular de alteraciones genéticas ó la terapia génica,
se verán con más detalle en los capítulos correspondientes.
En líneas generales, la obtención de grandes cantidades de un fragmento específico de ADN (es decir, de un
gran número de copias idénticas) se lleva a cabo en varios pasos: i) obtención de un pequeño número de
copias de dicho fragmento, habitualmente mediante la digestión del ADN celular con algún enzima que corte
específicamente el genoma en el punto deseado; ii) la inserción de esas copias en un "vector de clonación",
que es un fragmento de ADN con unas propiedades especiales que le permiten multiplicarse dentro de un
huésped apropiado; iii) la propagación del nuevo fragmento "recombinante" (es decir, el fragmento híbrido
formado por la unión del inserto y el vector) dentro del huésped, obteniendo un gran número de copias del
mismo. Esta metodología puede también aplicarse a genomas completos, de forma que es posible cortar un
genoma en pequeños fragmentos y clonar cada uno de esos fragmentos por separado; la colección completa
de clones que representan un genoma se denomina genoteca (ó biblioteca genómica). Aunque las
genotecas pueden representar genomas completos, también es habitual crear genotecas de fragmentos
genómicos (un cromosoma, por ejemplo, o una región cromosómica de interés) cuando no sea posible
clonar ese fragmento debido a su gran tamaño. También es posible construir genotecas especializadas, en
las que los fragmentos insertados en los vectores tienen una naturaleza específica; por ejemplo, son muy
comunes las genotecas de ADNc, en las que cada clon lleva un ADN complementario (una copia en ADN de
un ARN mensajero).
Figura 3.1 Estrategia general de clonación molecular de un fragmento de ADN
en un vector para su propagación en bacterias.
28
GENÉTICA HUMANA
Por tanto, en toda estrategia de clonación molecular son necesarios tres elementos básicos: un inserto, un
vector y un huésped. Como hemos dicho, el inserto es el fragmento de ADN que queremos obtener en
grandes cantidades, para después proceder a estudiarlo. Por lo que respecta al huésped, lo más habitual es
que se trate de alguna cepa de la bacteria Escherichia coli, especialmente modificada para permitir el
crecimiento de vectores con gran eficacia y fidelidad. Respecto a los vectores de clonación, existe una gran
variedad de posibilidades, cada una con características distintas que los hacen adecuados para aplicaciones
concretas. Los primeros vectores utilizados fueron los plásmidos, que son elementos bacterianos
extracromosómicos, circulares, que se replican dentro de la bacteria huésped con independencia de la
replicación del cromosoma bacteriano. Los plásmidos utilizados en clonación molecular son variaciones de
plásmidos nativos, que han sido modificados con el objeto de conseguir que se repliquen con mayor eficacia
(hasta cientos de copias por bacteria). Además, también se ha creado en ellos una región que se puede
cortar fácilmente con enzimas de restricción (ver más adelante) para introducir en ella el fragmento de ADN
de interés (es decir, el inserto). También se ha introducido en ellos el gen de resistencia a algún antibiótico,
que permita seleccionar las bacterias que llevan el plásmido dentro: cuando al cultivo en el que crecen las
bacterias se añade el antibiótico, sólo crecerán aquellas que tienen el plásmido y expresan los genes del
mismo. Los plásmidos tienen una capacidad limitada, ya que permiten albergar insertos de unas 5-10
kilobases de tamaño, como máximo. La necesidad de clonar fragmentos de mayor tamaño hizo que se
desarrollasen otros tipos de vectores derivados del genoma del fago lambda, un virus bacteriófago que
infecta bacterias introduciendo en ellas el genoma viral. Modificando el genoma nativo del fago lambda, se
han creado diversos vectores de clonación con una capacidad mayor que la de los plásmidos (permiten
albergar insertos de tamaños en torno a las 15 kilobases), que también se replican en bacterias con gran
eficacia. La necesidad de clonar fragmentos todavía mayores llevó a desarrollar otros tipos de vectores. Por
ejemplo, los cósmidos son vectores artificiales con características de plásmidos y de fagos, y tienen una
capacidad de unas 40 kilobases. Posteriormente aparecieron vectores derivados de los cromosomas de
levaduras, incluyendo secuencias necesarias para la replicación y la estabilidad de los brazos cromosómicos.
Estos vectores se denominan Cromosomas Artificiales de Levaduras (en inglés YAC, Yeast Artificial
Chromosome), crecen dentro de levaduras y tienen una gran capacidad porque pueden albergar insertos de
hasta 2 megabases (2x106 pares de bases). Como veremos más adelante, los vectores tipo YAC fueron muy
importantes para crear los primeros mapas del genoma humano, pero tienen algunos inconvenientes en su
manejo ya que los insertos a veces sufren alteraciones a medida que se multiplican dentro de las levaduras.
Por tanto, se desarrollaron otros vectores con menos capacidad pero mucho más estables y de manejo más
fácil, como son los vectores derivados del fago P1 o del mismo cromosoma bacteriano. Estos vectores se
denominan, respectivamente PAC (del inglés, P1-phage Artificial Chromosome) y BAC (Bacterial Artificial
Chromosome); crecen también dentro de bacterias y son capaces de albergar insertos de tamaños entre
100-150 kilobases. Aunque existen muchos otros tipos de vectores que se utilizan en técnicas de clonación
molecular, estos son los más usados en Genética humana, y aparecerán en otros Capítulos de este texto.
El proceso general de clonación molecular se desarrolla en varios pasos. En primer lugar, es necesario
preparar el inserto y el vector de modo adecuado. Esto supone cortarlos de modo que los extremos libres
del inserto puedan unirse a los extremos del vector. De hecho, como los vectores suelen ser circulares es
necesario abrirlos en un lugar específico en el que introducir el inserto. Todos estos cortes se llevan a cabo
con unas enzimas especiales llamada enzimas de restricción, cuya característica principal es
precisamente la capacidad de cortar el ADN en regiones específicas. Debido a la importancia de las enzimas
de restricción en ingeniería genética, les dedicaremos el siguiente apartado de este capítulo; por ahora, es
suficiente comprender que constituyen las "tijeras" moleculares que nos permiten realizar cortes específicos
en el inserto y en el vector para que ambos tengan extremos compatibles que se puedan unir. El siguiente
paso es, precisamente, la unión de inserto y vector para formar la molécula "recombinante" o híbrida. Esta
unión la realiza un enzima denominada ADN ligasa, habitualmente procedente del fago T4. Este enzima
CAPÍTULO 3: TÉCNICAS BÁSICAS DE GENÉTICA MOLECULAR
29
tiene la capacidad de catalizar la formación de enlaces fosfo-di-éster entre el grupo 5' fosfato y el grupo 3'
hidroxilo de dos cadenas nucleotídicas yuxtapuestas, y por tanto puede unir dos moléculas de ADN
bicatenario cuyos extremos sean compatibles. Tras la reacción de ligación se obtiene una molécula circular
de ADN conteniendo el inserto dentro del vector, y capaz de replicarse dentro de un huésped apropiado
merced a las secuencias específicas del vector. Por tanto, el siguiente paso del proceso de clonación
molecular consiste en la introducción de la molécula recombinante en el huésped, habitualmente E. coli.
Este proceso se denomina transformación, y puede hacerse por métodos químicos o físicos. El método
químico más empleado es el "golpe de calor" en una solución de cloruro de calcio, tras el cual las bacterias
son capaces de permitir el acceso de moléculas de ADN a su interior. Este proceso es muy ineficaz, ya que
sólo una bacteria de cada 500 ó cada 1000 incorporará la molécula de ADN recombinante con éxito; sin
embargo, las bacterias se multiplican varios órdenes de magnitud cuando crecen en cultivo, por lo que en
teoría basta que la transformación sea eficaz en tan sólo unas pocas bacterias para que podamos crecerlas
en condiciones de selección (utilizando antibióticos específicos dependiendo del tipo de vector que usemos)
y obtener una población en la que todas las bacterias contienen la molécula de ADN recombinante. Los
métodos físicos son más eficaces que los químicos, y se basan en la apertura de poros en la pared
bacteriana
mediante
la
aplicación
de
un
shock
eléctrico,
por
lo
que
la
técnica
se
denomina
electroporación. Al final del proceso, por tanto, contamos con una población bacteriana compuesta por
millones de bacterias, cada una de las cuales lleva varios cientos de copias de una molécula recombinante
que contiene un fragmento específico de ADN (el inserto original). Utilizando métodos sencillos de
extracción de ADN de las bacterias, es posible obtener preparaciones muy puras que contienen millones de
copias del fragmento, y esto nos permite llevar a cabo cualquier tipo de análisis o de estudios funcionales.
La Figura 3.2 incluye enlaces a animaciones que muestran el proceso de
transformación y la obtención de alto número de copias de moléculas
recombinantes.
ADN GENÓMICO
GENOTECA
30
GENÉTICA HUMANA
Enzimas de restricción
En los años 1950 se descubrió que algunos bacteriófagos (virus que infectan y destruyen bacterias) podían
infectar algún tipo concreto de bacterias pero no otros, debido a que algunas bacterias eran capaces de
digerir el ADN del fago y por tanto impedían su crecimiento. Como el fago ve "restringido" el rango de
huéspedes que puede infectar, a dicho sistema se le llamó sistema de restricción. Posteriormente se
descubrió que dicha restricción se lleva a cabo gracias a unas enzimas del tipo endonucleasas, que
digieren el ADN de doble cadena tras el reconocimiento y unión a secuencias específicas en el genoma
―invasor‖. Por tanto, dichas enzimas reciben el nombre genérico de enzimas de restricción. Las enzimas
de restricción tienen gran importancia para la supervivencia de las bacterias, y por ello son muy abundantes
y aparecen en todos los géneros de bacterias que se han estudiado. El descubrimiento de las primeras
enzimas de restricción de tipo II en los años 1970 fue clave para el desarrollo de las tecnologías del ADN
recombinante.
Las enzimas de restricción se clasifican en 3 tipos: tipo I, tipo II y tipo III. Las enzimas de tipo I y las de
tipo III son complejos multiproteicos que reconocen secuencias específicas de ADN asimétricas, y
digieren al ADN en otra región inespecífica alejada de la secuencia de reconocimiento, bastante alejadas en
el caso de las tipo I (desde 50 hasta varios miles de pares de bases) o menos alejadas en el caso de las tipo
III (unos 25 pares de bases). De todas formas, las enzimas de restricción de interés en ingeniería genética
son las de tipo II, que están codificadas por un único gen bacteriano y que suelen actuar en forma de
dímeros. Su característica principal es que el corte endonucleolítico tiene lugar dentro de la misma
secuencia de reconocimiento por la que se unen al ADN, llamadas también "dianas" ó "sitios" de restricción.
Hoy en día se conocen más de 3000 endonucleasas de restricción de tipo II, que reconocen más de 200
dianas distintas. Las enzimas que reconocen la misma diana pero proceden de bacterias distintas se
denominan isosquizómeros; es importante conocer su existencia para no confundir endonucleasas que
tienen la misma secuencia de reconocimiento. En este sentido, es importante conocer la nomenclatura de
estas enzimas, que depende del nombre de la cepa bacteriana de la que se aislan. Por ejemplo, las enzimas
de restricción purificadas a partir de Escherichia coli se denominan "EcoXX": las tres primeras letras (en
cursiva) designan la especie, y uno ó más caracteres en mayúscula (letras ó numeros romanos, nunca en
cursiva) designan la cepa o distinguen varias enzimas de una misma bacteria. Por lo general, las dianas de
reconocimiento de las enzimas tipo II tienen una longitud de 4 a 8 pares de bases. Lógicamente, el número
de posibles sitios de corte para una endonucleasa de restricción varía inversamente a la longitud de la
diana de reconocimiento, ya que por azar es más fácil encontrar secuencias de cuatro nucleótidos que de
ocho, por poner un ejemplo. Esto es importante a la hora de predecir si un enzima concreto presentará
muchas ó pocas dianas en un fragmento de ADN. Una característica importante de las enzimas de tipo II es
que las secuencias de reconocimiento son idénticas cuando se leen en dirección 5'  3' en cada una de las
dos cadenas de la doble hélice. Es decir, las dianas de reconocimiento de las enzimas tipo II son
secuencias palindrómicas. Existen algunas excepciones a esta regla general, sobre todo cuando las
dianas de reconocimiento tienen alguna posición degenerada, es decir, que puede ser ocupada por dos ó
más nucleótidos indistintamente. Finalmente, una característica común a la mayoría de las enzimas tipo II
es que cortan la cadena de ADN dentro de la secuencia de reconocimiento. Dependiendo del sitio
exacto donde corten, los extremos libres generados por el corte pueden ser de varios tipos. En primer lugar,
si la secuencia de reconocimiento está constituida por un número par de nucleótidos y el corte se produce
exactamente en el centro, los extremos serán "romos", es decir, las dos cadenas de la molécula de ADN
tendrán la misma longitud. En cambio, en otras enzimas el punto de corte está desplazado respecto del eje
de simetría de la secuencia de reconocimiento; dada la naturaleza palindrómica de dicha secuencia, esto
genera extremos libres en los que una de las dos cadenas de la doble hélice es más larga que la otra, que
se denominan extremos cohesivos. En las enzimas que generan extremos cohesivos, se distinguen
CAPÍTULO 3: TÉCNICAS BÁSICAS DE GENÉTICA MOLECULAR
31
además dos tipos según cuál de las dos cadenas de la molécula de ADN es más larga, la cadena 5' ó la 3';
así se habla de extremos cohesivos con "salientes" 5' ó 3', respectivamente. El tipo de extremos que genera
cada enzima es un factor importante en los experimentos de clonación molecular, porque las ligasan sólo
pueden unir extremos que sean compatibles, y además los extremos cohesivos habitualmente son ligados
con mucha mejor eficacia que los extremos romos.
En la Figura 3.3 se muestran ejemplos de dianas de restricción con extremos
romos y cohesivos, así como una animación del proceso de corte.
AluI
NlaIII
Sau3AI
TCGACAGCTGACGCATGTATAGCTAGCGATCTAGC
|||||||||||||||||||||||||||||||||||
AGCTGTCGACTGCGTACATATCGATCGCTAGATCG
5’…GACAG CTGAC…
||||| |||||
…CTGTC GACTG…
5’…AGC GATCTAG…
|||
|||
…TCGCTAG ATC…
5’
5’
Extremos cohesivos
(salientes 5’)
Extremos romos
5’…ACGCATG TAT…
|||
|||
…TGC GTACATA…
5’
Extremos cohesivos
(salientes 3’)
Técnicas básicas de hibridación de ácidos nucleicos
El desarrollo del concepto de hibridación entre moléculas de ácidos nucleicos ha tenido gran importancia en
el desarrollo de la ingeniería genética, como veremos al hablar de algunas técnicas concretas en otros
apartados de este Capítulo. En sentido general, hibridación se refiere al proceso por el que dos cadenas de
ácidos nucleicos que son complementarias se unen para dar una molécula bicatenaria. Las cadenas
originales pueden ser de ADN ó de ARN, de modo que la hibridación puede ser ADN-ADN ó ADN-ARN (es
más infrecuente trabajar con dobles cadenas de ARN). La hibridación es un proceso con una cinética que se
puede estudiar por las curvas de desnaturalización del ADN. Cuando una doble hélice se desnaturaliza
hasta la separación completa de ambas cadenas y se retiran las condiciones desnaturalizantes, las cadenas
vuelven a reasociarse buscando las regiones complementarias: a mayor número de nucleótidos
complementarios, la renaturalización es más rápida (y la desnaturalización más difícil). Como hemos visto,
la desnaturalización se realiza habitualmente por calor; si medimos el porcentaje de moléculas
desnaturalizadas a medida que aumentan la temperatura, obtenemos una curva sigmoidea que permite
calcular la temperatura a la cual el 50% de las moléculas están desnaturalizadas. Dicha
temperatura se conoce como temperatura de fusión, abreviada Tm (de "melting" en inglés). Un fragmento
32
GENÉTICA HUMANA
de ADN tendrá una Tm característica que dependerá de su tamaño y de la composición de bases: como los
pares entre citosina y guanina forman tres puentes de hidrógeno frente a los 2 que forman los pares
adenina-timina, un fragmento con muchos pares G:C será más estable y más difícil de desnaturalizar, por lo
que su Tm será más alta que la de un fragmento rico en pares A:T.
Estas propiedades de desnaturalización e hibridación de dobles hélices de ADN han sido explotadas para
desarrollar métodos de laboratorio que permitan identificar la naturaleza de fragmentos de ácidos nucleicos
en mezclas complejas. Por ejemplo, la digestión de ADN celular total con un enzima de restricción produce
miles de fragmentos de distintos tamaños en el tubo de reacción; en esas circunstancias, es posible
identificar cuál de esos fragmentos es portador de una secuencia específica utilizando técnicas de
hibridación. Para ello, se añade a la mezcla otro pequeño fragmento de ADN que represente la región que
queremos identificar, se desnaturalizan todos los fragmentos y se dejan hibridar libremente. La mayor parte
de las cadenas complementarias se reasociarán para reconstruir los fragmentos originales; en cambio, la
presencia de pequeñas cadenas que son perfectamente complementarias con una región de un fragmento
grande permitirá la formación de híbridos entre la cadena pequeña y la correspondiente cadena larga
complementaria. De hecho, esta reacción se ve favorecida respecto de la reasociación de cadenas largas
entre sí, precisamente porque los fragmentos pequeños hibridan más rápidamente. Por tanto, un pequeño
fragmento de ADN es capaz de identificar los fragmentos de una mezcla compleja que contienen secuencias
complementarias al mismo. Por este motivo, estos pequeños fragmentos se denominan sondas ("probe" en
inglés), y suelen estar constituídas por moléculas de ADN de varios cientos de pares de bases. De todas
formas, en un tubo de ensayo no se ven las moléculas de ADN, por lo que una sonda de ADN no será de
gran utilidad si no es fácilmente detectable. Por este motivo, las sondas utilizadas en biología molecular
llevan algún tipo de marcaje que permita detectar su presencia: marcaje con algún isótopo radioactivo, con
un fluorocromo o con una molécula con actividad enzimática detectable por alguna reacción química. La
utilización de sondas de ADN marcadas ha sido uno de los pilares básicos de la ingeniería genética en los
últimos decenios, y su utilización sigue estando muy extendida; de hecho, algunas de las tecnologías más
recientes, como los microarrays de ADN, se basan todavía en la hibridación de sondas con fragmentos
"diana".
La Figura 3.4 muestra el proceso de hibridación de una sonda sobre una
molécula complementaria de ADN.
Aunque los fenómenos de hibridación se dan en solución, la utilización más habitual de sondas de ADN es la
detección de fragmentos de ácidos nucleicos que han sido previamente inmovilizados sobre un soporte
sólido. El ejemplo más sencillo es la detección de un fragmento específico de ADN celular que ha sido
digerido con un enzima de restricción. La separación de los fragmentos generados por la digestión puede
hacerse fácilmente mediante electroforesis en gel de agarosa o de acrilamida, sustancias porosas en la que
la velocidad de migración electroforética varía en función del tamaño de los fragmentos. Una vez que los
fragmentos han sido separados, el uso de una sonda marcada nos permitirá detectar el fragmento o
fragmentos que contienen la secuencia de la sonda, ya que ésta hibridará específicamente en esas regiones.
Para llevar a cabo de modo sencillo la reacción de hibridación entre la sonda y los fragmentos digeridos que
se han separado en el gel, Edwin Southern ideó un método sencillo para transferir todos los fragmentos
del gel a un soporte sólido de nitrocelulosa o de nylon, más resistente y fácilmente manejable que un gel.
La transferencia crea una réplica del gel en el soporte sólido (llamado filtro, por utilizarse inicialmente papel
de filtro), ya que mantiene la posición relativa que tenían los fragmentos en el gel. Tomando nombre de su
creador, la transferencia de fragmentos de ADN de un gel a un filtro se denomina transferencia southern;
cuando los fragmentos son de ARN, en vez de ADN, las condiciones en que se realiza la transferencia
CAPÍTULO 3: TÉCNICAS BÁSICAS DE GENÉTICA MOLECULAR
33
cambian un poco, y se denomina transferencia northern (juego de palabras con "Southern", que significa
"sureño"; "northern" es "norteño"). Posteriormente, esta técnica también se aplicó a las proteínas, tomando
entonces el nombre de transferencia western ("occidental").
La Figura 3.5 ilustra el proceso de electroforesis en gel de agarosa, así como
la transferencia de fragmentos a una membrana rígida.
Los métodos de transferencia de ácidos nucleicos a soporte sólido junto con la hibridación con sondas
marcadas han sido y siguen siendo muy utilizados en biología molecular. Estos mismos principios se han
combinado también con las técnicas clásicas de citogenética para el estudio de cromosomas, dando lugar a
las técnicas de citogenética molecular que veremos en un capítulo posterior. Otras aplicaciones de estas
técnicas al diagnóstico de alteraciones genéticas en Genética humana serán abordadas en los capítulos
correspondientes.
Amplificación in vitro de ADN (PCR)
Aunque las técnicas de clonación molecular proporcionan altas cantidades de un fragmento de ADN, son
técnicas laboriosas, con incubaciones largas: un experimento típico de clonaje lleva unos dos días. Hacia
finales de los años 1980 se describió una metodología nueva que permitía amplificar selectivamente una
región concreta de ADN, de modo que partiendo de cantidades iniciales pequeñísimas (teóricamente, una
sola copia del fragmento) podrían obtenerse varios miles de millones de copias. El método se desarrolla en
un periodo de pocas horas y no incluye ningún paso de digestión, ligación ni transformación, sino que se
basa en la acción cíclica de una polimerasa de ADN que amplifica selectivamente la región de interés y
ninguna otra. Por este motivo, el método se conoce como reacción en cadena de la polimerasa
(abreviado PCR, en inglés Polymerase Chain Reaction).
El punto central de la técnica de PCR es la síntesis de ADN desde un punto concreto, repetida durante un
número elevado de veces (ciclos). Por tanto, hay dos elementos esenciales de la técnica: i) conseguir que la
amplificación se limite exclusivamente a la región genómica de interés, y ii) utilizar algún tipo de
polimerasa que permita repetir el proceso de síntesis de ADN muchas veces. Por lo que respecta al primer
punto, la técnica utiliza algo que ya era conocido, como es la capacidad de las polimerasas de ADN de
catalizar la síntesis de ADN a partir del extremo 3' libre de un oligonucleótido que está unido a una cadena
complementaria más larga, la cual actúa como molde de la síntesis. Este proceso, habitual en la replicación
del
ADN
celular,
puede
reproducirse
en
el
laboratorio
utilizando
pequeñas
moléculas
de
ADN
complementarias a una región concreta de una doble cadena más larga. Como es sabido, una de las formas
de desnaturalizar el ADN (es decir, separar las dos cadenas de una doble hélice) es mediante calor; como
veremos en el siguiente apartado, la temperatura necesaria para alcanzar dicha desnaturalización depende
de la secuencia de la molécula, pero a partir de los 92-94 ºC la práctica totalidad de las moléculas estarán
desnaturalizadas. Si se desnaturaliza una molécula de ADN, obtendremos dos cadenas libres; al dejar
enfriar la preparación, ambas moléculas vuelven a unirse por complementariedad de bases hasta que el
ADN se re-naturaliza por completo. Este proceso es lento, por lo que si la re-naturalización se lleva a cabo
en presencia de pequeños oligonucleótidos cuya secuencia es complementaria a alguna porción de la
molécula larga original, estas pequeñas moléculas se unirán rápidamente a la región complementaria de la
molécula larga antes de que ésta llegue a re-naturalizarse. El resultado es que cada una de las cadenas
originales se mantiene monocatenaria excepto en la región en que se ha unido el oligonucleótido. En esa
región, una polimerasa de ADN puede sintetizar a partir del extremo 3' libre de la molécula pequeña,
34
GENÉTICA HUMANA
usando como molde la secuencia de la molécula grande. Por este motivo, las moléculas cortas que inician la
síntesis de ADN se llaman cebadores (primers en inglés). Si utilizamos dos cebadores, cada uno de ellos
complementario a cada una de las dos cadenas de la molécula original de ADN, habrá dos procesos de
síntesis simultáneos en direcciones opuestas, y al final tendremos dos cadenas bicatenarias de ADN con la
misma secuencia que la molécula original. Es fácil ver que, precisamente, es la posición de los cebadores la
que determina cuál región de la molécula larga se va a amplificar, ya que sólo la secuencia que queda
comprendida entre los dos cebadores va a ser amplificada.
El video de la Figura 3.6 muestra la desnaturalización, unión y extensión de
un cebador sobre una región específica de ADN.
Los elementos necesarios para llevar a cabo una reacción de PCR, por tanto, son el ADN molde original que
se quiere amplificar, los cebadores, la polimerasa de ADN y nucleótidos libres que se incorporan a la cadena
naciente durante la síntesis. Por lo que respecta al ADN molde, una de las grandes ventajas de la PCR es
que puede utilizarse ADN relativamente impuro, e incluso es posible usar células o bacterias completas,
sangre impregnada en papel de filtro, etc. En cualquier caso, la pureza del ADN molde asegura un buen
funcionamiento de la reacción. Además, las cantidades necesarias son pequeñas, no deben superar los 100200 ng por reacción; se estima que con estas cantidades de ADN genómico total se puede amplificar un gen
que esté en una sola copia en el genoma. Los cebadores son oligonucleótidos sintéticos monocatenarios,
con un grupo hidroxilo 3' a partir del que se sintetiza la nueva cadena de polinucleótidos. La característica
más crucial de un cebador es su especificidad, es decir, que sólo se pueda unir a una región concreta del
ADN molde. Esto va a asegurar que sólo se amplifique la región de interés; por el contrario, si los cebadores
se unen inespecíficamente en zonas distintas a la deseada, la PCR produce resultados difícilmente
interpretables. Esto es especialmente importante cuando el ADN molde representa un genoma completo, o
fragmentos cromosómicos grandes. Para asegurar este parámetro, se utilizan cebadores con una tamaño
mínimo de 17 nucleótidos, ya que se estima que esta longitud es suficiente para reconocer una sola
secuencia en un genoma eucariota. En efecto, la probabilidad de encontrar por azar una secuencia de 17
nucleótidos es 417 = 1,7 x 1010. Como los genomas de mamíferos tienen en torno a 3 x 10 9 nucleótidos, esto
supone que un cebador de 17 nucleótidos en teoría puede identificar una secuencia única dentro de un
genoma de ese tamaño. Evidentemente, pueden utilizarse cebadores más largos, dependiendo de otros
factores que se comentarán más adelante, pero los cebadores utilizados en reacciones de PCR típicas están
en un rango de tamaños entre los 17 y 25 nucleótidos. La polimerasa de ADN utilizada es la responsable
de la extensión de la nueva cadena de ADN a partir de un cebador. El tipo de polimerasa utilizado viene
determinado por las características de la propia reacción de PCR. Como la reacción ha de someterse a
numerosos ciclos de desnaturalización-renaturalización, la actividad enzimática de la polimerasa se destruye
con cada etapa de calentamiento para desnaturalizar el ADN, por lo que sería necesario añadirla
nuevamente al comienzo de cada ciclo. Esta dificultad se ha superado por el descubrimiento de polimerasas
de ADN que son termoestables, es decir, pueden soportar elevadas temperaturas durante largo tiempo sin
perder su actividad. Las bacterias que viven en aguas termales, como la especie Thermus aquaticus,
sobreviven en temperaturas cercanas a los 100 ºC y contienen polimerasas termoestables. De ahí que la
polimerasa más frecuentemente utilizada en las reacciones de PCR se denomine polimerasa Taq, para
indicar su origen. La polimerasa Taq requiere la presencia de ión magnesio como cofactor, por lo que todas
las soluciones utilizadas deben llevar este elemento. La temperatura óptima de polimerización de la Taq es
de 72 ºC: a esa temperatura se incorporan unos 100 nucleótidos por segundo. Además, la Taq carece de la
actividad exonucleasa 3'  5' que tienen otras polimerasas. Finalmente, los nucleótidos libres, necesarios
para sintetizar las nuevas cadenas, tienen una buena resistencia al calor y su vida media es de más de 40
ciclos de calentamiento. Como se trata de sintetizar ADN, se utilizan desoxi-nucleótidos trifosfato (dATP,
CAPÍTULO 3: TÉCNICAS BÁSICAS DE GENÉTICA MOLECULAR
35
dCTP, dGTP y dTTP), que pueden incorporarse al extremo 3' de una cadena creciente por su grupo fosfato
5'.
Teniendo en cuenta todo lo dicho hasta el momento, podemos esquematizar una reacción de PCR como un
proceso cíclico, repetitivo, en el que cada uno de los ciclos está constituido por 3 fases: desnaturalización,
hibridación y extensión. La fase de desnaturalización, como su nombre indica, consiste en someter la
reacción a una temperatura de 94 ºC durante 1 minuto, para asegurar que todas las moléculas de ADN
molde se han desnaturalizado y están en estado monocatenario. Realmente, la desnaturalización es
prácticamente instantánea cuando toda la mezcla alcanza esa temperatura, pero la inercia térmica hace que
haya que mantener la temperatura de desnaturalización durante unos segundos. No es bueno prolongarla
demasiado, porque esto daña el ADN molde y reduce la actividad de la Taq. La siguiente fase de cada ciclo
debe permitir la hibridación de los cebadores con sus secuencias complementarias en el ADN molde, y por
eso se llama fase de hibridación. En este sentido, "hibridar" es formar una molécula bicatenaria de ADN a
partir de la unión de dos moléculas monocatenarias que tienen secuencias complementarias. Para llevar
esto a cabo, es necesario disminuir la temperatura de la reacción, de modo que los cebadores se unan a sus
dianas pero las cadenas largas de la molécula original no lleguen a reasociarse entre sí. La temperatura a la
que se realiza la hibridación depende de la secuencia de los cebadores, pero suele estar entre 55ºC y 65ºC,
y se mantiene en torno a 1 minuto. La última etapa de un ciclo típico se denomina fase de extensión,
porque en ella la polimerasa extiende los dos cebadores tomando como molde las secuencias de las cadenas
originales, incorporando los desoxi-nucleótidos que están presentes en la mezcla de reacción. Por la
temperatura óptima de la polimerasa, esta fase se realiza a 72ºC, durante un tiempo variable dependiendo
de la longitud del fragmento amplificado (entre 30 segundos y 2 minutos, en condiciones estándar). Una
reacción típica de PCR consta de 30-35 ciclos como el descrito. Además, suele ir precedida por un breve
periodo de desnaturalización de unos 3 a 5 minutos, para asegurar que todo el ADN está desnaturalizado
antes del primer ciclo, y una fase final de extensión (unos 5 a 10 minutos a 72ºC) para extender todas las
moléculas que hayan quedado incompletas. Es fácil ver que, teóricamente, en cada ciclo se duplica el
número de moléculas de ADN de la región específica que queremos amplificar; por tanto, el número de
moléculas presentes en un ciclo dado es de 2n, siendo n el número de ciclo. Por ejemplo, si partimos de una
sola molécula inicial de ADN, tras 10 ciclos tendremos 1.024 copias, tras 20 ciclos tendremos 1.048.576
copias, y tras 30 ciclos tendremos 1.073.741.824 de copias de la molécula original. De todas formas, no
todas las moléculas serán idénticas, porque en cada ciclo se generan moléculas que llevan cadenas largas
que sobrepasan el límite de uno de los cebadores. Estas moléculas aumentan en progresión aritmética (se
crean dos con cada ciclo), mientras que los fragmentos específicos comprendidos por los dos cebadores
aumentan exponencialmente a partir del tercer ciclo. Por ejemplo, en una PCR de 35 ciclos tendremos
34.359.738.368 copias (235), de las que 70 corresponden a moléculas largas y el resto corresponden al
fragmento de interés. Este aumento exponencial se observa también experimentalmente, cuando se
cuantifica la cantidad de ADN total después de cada ciclo; tras una fase inicial más lenta, tiene lugar una
fase de aumento exponencial (una línea recta cuando se representa en escala logarítmica), y una fase final
(a partir del ciclo 32-35, más o menos) en la que se alcanza una meseta y la amplificación se detiene por
agotamiento de los reactivos y pérdida de actividad de la polimerasa.
La Figura 3.7 lleva a una animación que muestra los primeros ciclos de una
PCR y permite calcular el número de moléculas que se generan por ciclo.
Lógicamente, la realización de una reacción de PCR requiere un equipamiento apropiado que permita llevar
a cabo los ciclos de modo automático. Inicialmente, se utilizaban baños separados, cada uno a una
temperatura distinta (desnaturalización, hibridación y extensión) y los investigadores debían pasar los tubos
36
GENÉTICA HUMANA
de reacción de un baño a otro a los tiempos apropiados. Pronto se desarrollaron máquinas que tienen una
placa metálica, con capacidad para un alto número de tubos, cuya temperatura puede variarse con gran
rapidez y precisión, estando todo el proceso controlado por un microprocesador. Estas máquinas, llamadas
termocicladores (ó cicladores térmicos), permiten programar las condiciones de tiempo, temperatura,
número de ciclos, etc, de modo que el operador sólo tiene que introducir los tubos y esperar al final de la
reacción, que suele durar en torno a los 60-90 minutos con los termocicladores modernos.
Las aplicaciones de la técnica de PCR han sido múltiples desde su aparición; a lo largo de este libro veremos
su uso en la detección de alteraciones genéticas que causan enfermedades. La descripción de los posibles
usos en diferentes estrategias de análisis genético y en biotecnología, está más allá del objetivo de este
apartado, en el que se ha pretendido únicamente introducir en esta técnica a aquellos que no la conocen. En
cualquier caso, es importante reseñar una de las variantes más utilizadas, como es la amplificación de
fragmentos de ARN mensajero. En este caso, en vez de utilizar ADN como molde para la amplificación, se
usa una molécula de ADN que es copia de un ARNm, obtenida por un proceso que se llama
retrotranscripción: gracias a la actividad transcriptasa reversa de la polimerasa de algunos virus (una
ADN polimerasa dependiente de ARN), se puede sintetizar una molécula de ADN complementaria a una
molécula de ARN. Por tanto, si queremos amplificar selectivamente un ARNm, es preciso obtener primero un
ADN complementario (llamado ADNc) haciendo una retrotranscripción del ARNm, y después ese ADNc ya se
puede amplificar por PCR como cualquier otro fragmento de ADN. Por este motivo, esta variante de la
técnica se llama RT-PCR (retrotranscripción-PCR). Es una técnica muy utilizada y de gran interés cuando se
quiere trabajar con las secuencias de los genes ya procesados, prescindiendo de los intrones, y supuso un
gran avance porque hasta su aparición era muy difícil estudiar ARN mensajeros.
Secuenciación del ADN
Desde el descubrimiento de la estructura del ADN y del código genético, una de las herramientas más
importantes para identificar genes y predecir su función ha sido la determinación de la secuencia de
nucleótidos que constituye cada gen. En las últimas décadas, la tecnología de secuenciación del ADN ha sido
determinante para poder llevar a cabo los distintos "proyectos genoma", cuya finalidad es obtener la
secuencia completa de nucleótidos del genoma completo de una especie. Hoy en día, además, un aspecto
crucial de la investigación genética es la determinación de pequeñas variaciones interindividuales, lo que
requiere la secuenciación de una misma región en distintos individuos. Por tanto, los métodos actuales de
determinación de la secuencia de nucleótidos de un fragmento de ADN son muy variados, y los desarrollos
tecnológicos recientes han dado lugar a un gran abanico de técnicas diseñadas para responder a distintas
necesidades. De todas formas, todas las tecnologías son de algún modo tributarias del método original
ideado por Fred Sanger y Alan Coulson a finales de los años 1970. Este método se conoce como el
método de "terminación de cadenas" ó "di-desoxi", porque se basa en la interrupción del proceso de
extensión de un cebador, dando lugar a cadenas de todas las posibles longitudes, puesto que cada una ha
sido interrumpida en una posición distinta; la separación de las cadenas de distintos tamaños y la detección
de cuál nucleótido llevan en su extremo 3' nos permite deducir la secuencia de la molécula original.
El primer elemento de toda reacción de secuenciación es, lógicamente, el fragmento de ADN cuya
secuencia queremos leer; precisamente, este fragmento sirve como molde para la síntesis de ADN a partir
de un cebador específico que se une a él por complementariedad de bases, y esto es lo que nos va a
permitir deducir la secuencia de nucleótidos del fragmento. Aunque inicialmente era necesario convertir el
fragmento de ADN a su forma monocatenaria, clonándolo un tipo especial de vectores, hoy en día puede
utilizarse ADN de doble cadena, bien sea en forma de plásmidos (cuyo inserto queremos secuenciar) o como
CAPÍTULO 3: TÉCNICAS BÁSICAS DE GENÉTICA MOLECULAR
37
productos de PCR. Al igual que en el caso de la PCR, otro elemento necesario es el cebador que va a iniciar
la síntesis de ADN desde el punto donde queremos empezar a leer la secuencia del fragmento original.
Nótese que aquí sólo vamos a utilizar un cebador (en vez de dos, como en la PCR) ya que no queremos
amplificar una región, sino simplemente sintetizar nuevas cadenas de ADN a partir de un punto concreto.
Como toda reacción de síntesis de ADN, también es necesaria la presencia de una polimerasa de ADN que
tenga buena procesividad y fidelidad (es decir, que no introduzca errores en la nueva cadena). El punto
clave de este método de secuenciación está en los nucleótidos libres presentes en la reacción, que se van
a ir incorporando a la nueva cadena sintetizada por la polimerasa a partir del extremo 3' del cebador;
además de 2'-desoxi-nucleótidos típicos en su forma tri-fosfato, este método incorpora a la mezcla de
reacción unos nucleótidos especiales que actúan como "terminadores" de la síntesis. Los terminadores son
nucleótidos modificados químicamente que carecen además del grupo hidroxilo 3' por el que crece la
cadena, de ahí su nombre de di-desoxi-NTP (abreviado como ddNTP), ya que corresponden a la forma
2',3'-di-desoxi de cada nucleótido tri-fosfato.
La Figura 3.8 contiene enlaces a animaciones y videos que ilustran el método
original de secuenciación de Sanger.
La reacción de secuenciación, una vez que tenemos los distintos componentes mezclados en cantidades
adecuadas, procede del siguiente modo. En primer lugar, el fragmento a secuenciar se desnaturaliza para
separar las dos cadenas y permitir que el cebador acceda a su región complementaria específica. Tras
permitir la hibridación del cebador con la cadena molde respectiva, la polimerasa comienza a extender el
cebador incorporando nucleótidos complementarios a los de la cadena molde. Como en la reacción están
presentes desoxi-NTPs y didesoxi-NTPs, en cada posición es posible incorporar uno u otro. En el caso de
incorporar un dNTP, la cadena seguirá extendiéndose normalmente, ya que el nuevo nucleótido proporciona
el grupo hidroxilo 3' necesario para formar un nuevo enlace fosfo-di-éster con el grupo fostato de un nuevo
nucleótido; en cambio, si el nucleótido incorporado es un ddNTP, la síntesis de la cadena terminará
en esa posición, ya que no existe el grupo hidroxilo 3' necesario para continuar la elongación.
Lógicamente, esto sucederá para cada posición, de modo que mientras la síntesis avanza (porque se han
incorporado dNTPs) en cada nueva posición existe la posibilidad de que la cadena se termine en ese punto.
Al final, tendremos una colección de fragmentos de todos los posibles tamaños, con una diferencia de
longitud de 1 nucleótido; cada fragmento estará terminado por el nucleótido complementario al que estaba
en la cadena molde original en esa posición. Cuando la reacción de secuenciación ha sido completada, sólo
nos resta separar de alguna forma todos los fragmentos de los distintos tamaños y ver en qué nucleótido
está terminado cada uno de ellos, de modo que así podremos reconstruir la secuencia original. Los métodos
para separar los fragmentos y leer el nucleótido terminal han cambiado bastante desde la descripción
original del método. Hoy en día, lo más habitual es utilizar terminadores marcados con algún fluorocromo
específico: se trata de ddNTPs que llevan unido un grupo químico que produce fluorescencia cuando es
excitado por una luz de una determinada longitud de onda. Como cada terminador lleva un fluorocromo
distinto, es fácil saber en qué nucleótido terminó una cadena concreta, dependiendo del tipo de
fluorescencia que produzca. Para la separación de los fragmentos se utilizan técnicas de electroforesis
capilar, en la que la mezcla de reacción va pasando por unos finos capilares que contienen una matriz
porosa capaz de resolver fragmentos de ADN que se diferencian en tamaños de tan sólo un nucleótido. De
este modo, cuando la reacción de secuenciación ya completada pasa por el capilar, los fragmentos más
pequeños pasan más facilmente y salen del capilar antes que los fragmentos mayores, que tienen más
dificultad para atravesar los poros y por eso quedan retenidos temporalmente. El resultado es que todos los
fragmentos de la mezcla de reacción van saliendo del capilar ordenados por tamaños, comenzando por el
más corto, con diferencias de tamaño un solo nucleótido. A la salida del capilar se sitúa una fuente de luz
38
GENÉTICA HUMANA
(habitualmente un láser) que excita los fluorocromos y produce un tipo de fluorescencia específico de cada
ddNTP, lo cual es detectado por un dispositivo especial. Así, viendo el orden en que van apareciendo los
cuatro distintos colores correspondientes a los cuatro nucleótidos, podemos saber la secuencia de la cadena
que se ha sintetizado, que será exactamente la secuencia complementaria a la cadena molde original.
El video de la Figura 3.9 muestra con detalle el método moderno de
secuenciación con terminadores fluorescentes y separación de los fragmentos
mediante electroforesis capilar.
Aunque en la actualidad se están desarrollando metodologías nuevas más rápidas y baratas, en dispositivos
miniaturizados que permiten determinar la secuencia de un fragmento en segundos, el método de
secuenciación de Sanger ha tenido una influencia crucial en el desarrollo de la biología molecular y la
genética moderna.
Microarrays
La cuantificación del nivel de expresión de un gen, la intensidad con la que se transcribe, puede medirse
utilizando las técnicas explicadas en los apartados precedentes. Inicialmente se utilizaba la técnica de
Northern blot, en la que la intensidad de la señal obtenida es proporcional a la cantidad de ARNm presente
en la muestra. Más recientemente se han desarrollado técnicas de PCR cuantitativa que consiguen
cuantificar la cantidad de ARNm presente en la muestra: utilizando ADNc (ADN complementario) como
molde, se puede realizar RT-PCR cuantitativa para determinar la abundancia relativa del ARNm y comparar
varios tejidos o condiciones experimentales. Con la llegada de los grandes proyectos de secuenciación, se
planteó la posibilidad de determinar la expresión génica a nivel genómico, es decir, analizar el perfil de
expresión de todos los genes de un genoma en distintas situaciones, para así identificar los genes
implicados en distintos procesos fisiológicos o en el desarrollo de enfermedades. La cuantificación de la
expresión de miles de genes es impractible por los métidos tradicionales, por lo que se desarrolló una
metodología nueva que permitiese hacer este tipo de experimentos a bajo coste y en poco tiempo. Dicha
tecnología se conoce como la tecnología de microarrays, también llamados a veces "chips" de ADN, porque
se basa en la utilización de unos dispositivos sólidos miniaturizados en los que se puede medir la expresión
de miles de genes a la vez.
Aunque existen distintos tipos de microarrays en función de la tecnología de fabricación, el fundamento de
todos ellos es la hibridación de una mezcla de dos clases de ADNc, marcados con fluorocromos distintos,
sobre una fase sólida que contiene miles de sondas inmobilizadas, cada una de ellas específica para
un gen distinto. Por tanto, a diferencia de los experimentos tradicionales de hibridación sobre filtros, en los
que el ADN está fijado sobre la fase sólida y la sonda está presente en la solución de hibridación, en la
tecnología de microarrays son las sondas las que están inmobilizadas sobre el soporte sólido, y son los ADNc
los que "buscan" las sondas complementarias a su secuencia e hibridan con ellas. De modo general, un
microarray es un portaobjetos de vidrio al que se han adherido, por métodos físicos o químicos, sondas de
ADN en posiciones fijas y ordenadas, cada una ocupando un punto ó "spot". Cada punto contiene entre 10 7108 moléculas de una sonda concreta, que puede ser de distintos tamaños y que debería reconocer
específicamente un solo gen del genoma.
CAPÍTULO 3: TÉCNICAS BÁSICAS DE GENÉTICA MOLECULAR
39
La Figura 3.10 muestra ejemplos de varios tipos de microarrays, cómo se
fabrican y una imagen de hibridación.
Aunque los microarrays fueron originalmente diseñados para realizar estudios de expresión génica a escala
genómica, también se pueden utilizar para detectar pequeñas deleciones o duplicaciones en un genoma. En
este caso se habla de microarrays genómicos, en los que las sondas son fragmentos de un genoma. Por
ejemplo, un microarray genómico humano tendrá varios miles de sondas que representan todo el genoma
humano ordenado en los distintos puntos del array; la hibridación se realiza con una mezcla de dos ADN
genómicos, con la finalidad de detectar regiones genómicas que estén en distinto número de copias en uno
de los genomas respecto al otro.
En cualquier caso, la metología experimental es similar en los distintos tipos de microarrays. En primer
lugar es necesario obtener los ADN que se van a hibridar sobre el microarray (ADNc si se van a hacer
estudios de expresión génica o ADN genómico total si se trata de microarrays genómicos). Cada uno de las
dos muestras que se van a comparar es marcada con un fluorocromo distinto, habitualmente uno que da
fluorescencia verde y otro con fluorescencia roja. A continuación se realiza la reacción de hibridación y se
detecta la fluorescencia que emite cada punto del microarray. Dependiendo de la intensidad de la
fluorescencia de cada color en cada punto, es posible deducir si el gen representado por esa sonda se
expresa o no en las muestras. Lógicamente, un experimento con microarrays genera cantidades masivas de
datos, al tratarse de miles de puntos analizados simultáneamente; por ello, las herramientas de análisis de
imagen y de procesamiento de los datos con bastante sofisticadas. Gracias a esto, los estudios de
microarrays están permitiendo avanzar en el diagnóstico de enfermedades, ya que permiten detectar
"firmas" de expresión específicas para enfermedades concretas. Estas "firmas" son patrones
característicos formados por los genes que tienen su expresión más alterada en un proceso concreto; al
detectar el subgrupo de genes que se alteran con mayor intensidad, podemos utilizar esa información para
diagnosticar si un individuo sufre ese mismo proceso. En algunos casos, la utilización de estas "firmas"
moleculares ha ayudado a distinguir procesos que antes se agrupaban juntos, identificando enfermos que
tienen distintas posibilidades de respuesta a tratamientos, distinta supervivencia, etc.
La Figura 3.11 nos lleva a unas animaciones que muestran cómo se lleva a
cabo y se interpreta un experimento con microarrays.
Actualmente se están generando bases de datos que archivan los resultados de múltiples estudios de
microarrays, con lo que es posible acceder a esos datos y elaborarlos para obtener información sobre los
niveles de expresión de un gen en distintos tipos celulares y en distintas condiciones experimentales. El
análisis de estos datos permitirá establecer cómo varían los patrones de expresión génica de un genoma en
distintos procesos metabólicos y fisiológicos, así como también en diversas situaciones patológicas. Así
podremos
identificar
las
variaciones
típicas de
los
distintos
tipos
de
cáncer,
de
enfermedades
cardiovasculares, neurodegenerativas, etc; esto, a su vez, permitirá identificar nuevas dianas terapéuticas
para restablecer esos patrones de expresión alterados.
40
GENÉTICA HUMANA
CAPÍTULO 4: GEOGRAFÍA DEL GENOMA HUMANO
41
B. EL GENOMA HUMANO
En tres temas se cubre la organización general del genoma humano y la relación entre
estructura y función, además de prestar atención a las bases moleculares del cambio
genético y a los mecanismos correctores de los errores introducidos en la secuencia.
CAPÍTULO 4. LA GEOGRAFÍA DEL GENOMA HUMANO
Historia y desarrollo del Proyecto Genoma Humano. Estructura del Genoma
Humano. El ADN repetitivo. El genoma mitocondrial.
Historia y desarrollo del Proyecto Genoma Humano
En 1986, el Departamento de Energía de los Estados Unidos lideró la Iniciativa del Genoma Humano,
tras varios años de contactos y reuniones, y puso en marcha el mayor proyecto biomédico de la historia con
el objetivo final de conseguir la secuencia completa del genoma humano en el año 2005. El Proyecto
Genoma Humano comenzó oficialmente en Estados Unidos en octubre de 1990, siguiendo un plan a cinco
años para desarrollar las herramientas que permitiesen conseguir esa meta. Estas herramientas eran
principalmente la construcción de mapas genéticos (de ligamiento) y de mapas físicos (de clones) de
todo el genoma humano, al tiempo que se desarrollaba la tecnología necesaria para realizar secuenciación a
gran escala. La estrategia general consistió en construir mapas genéticos y físicos e integrarlos, para
aumentar cada vez más en resolución desde el cromosoma hasta la secuencia de ADN.
Los mapas genéticos describen la organización cromosómica de caracteres (un rasgo fenotípico, una
enfermedad) o de marcadores genéticos, mediante estudios de ligamiento genético.
El concepto de ligamiento genético y la forma en que se cuantifica son objeto
del Capítulo 11. Si el lector no está familiarizado con la construcción de
mapas de ligamiento, se aconseja estudiar el Capítulo 11 antes de seguir
leyendo.
La Figura 4.1 explica cómo son los mapas físicos y los mapas de ligamiento
genético, y su utilización en el Proyecto Genoma Humano.
Los primeros éxitos de mapeo genético en humanos fueron los que consiguieron asociar un carácter a un
cromosoma, como por ejemplo el ligamiento del daltonismo al cromosoma X, o ligamiento del grupo
sanguíneo Duffy al cromosoma 1. Este último fue el primer rasgo hereditario mapeado a un autosoma (en
1968) gracias a que, en una familia concreta, se observó que este rasgo se heredaba junto con un
heteromorfismo del cromosoma 1. Esto puso de manifiesto la utilidad de contar con marcadores de ADN
que estuviesen distribuidos por todo el genoma, fuesen fáciles de estudiar en un número alto de individuos
42
GENÉTICA HUMANA
y tuviesen una posición cromosómica conocida, ya que así se podrían realizar estudios de ligamiento
genético en familias que padecen una determinada enfermedad genética para determinar si esa enfermedad
está en ligamiento con alguno de estos marcadores, lo que facilitaría la identificación del gen responsable.
Distancia en centimorgans (cM)
DS16C4
DS16B3
STS 8 STS 6
STS 7 STS 5
DS16A2 DS16A1
STS 4 STS 3
STS 1
STS 2
MAPA GENÉTICO DE LIGAMIENTO
4 marcadores posicionados por
estudios de ligamiento
MAPA FÍSICO
8 marcadores tipo STS cuya posición
es conocida
Distancia física en pares de bases
(bp)
Los tipos de marcadores más utilizados en estudios de ligamiento en Genética Humana son:

Polimorfismos de Longitud de Fragmentos de Restricción (en inglés, las siglas son RFLP). Un RFLP es
un polimorfismo originado por un cambio de un nucleótido que crea o destruye una diana de
restricción, de manera que encontraremos alelos con esa diana y alelos sin ella. Por tanto, un RFLP es
por definición un marcador bialélico (sólo hay dos alelos posibles). La presencia o ausencia de esa
diana hace que los fragmentos originados por la digestión del ADN con esa enzima de restricción sean
de distinto tamaño. En general, un polimorfismo tipo RFLP puede detectarse de dos modos: a) digerir
directamente el ADN genómico, separar los fragmentos en un gel, hacer un Southern blot e hibridarlo
con una sonda específica para detectar cada uno de los fragmentos polimórficos; b) amplificar la región
del polimorfismo mediante PCR y digerir directamente el producto de PCR para separar los fragmentos
en un gel.

Los marcadores tipo VNTR (acrónimo inglés de ―Número Variable de Repeticiones en Tándem") son
polimorfismos originados por pequeñas secuencias de ADN que están repetidos en tándem. El número
de repeticiones es diferente en los distintos individuos de la población, por lo que en principio pueden
existir más de dos alelos distintos para cada marcador (aunque cada individuo sólo lleve dos alelos,
en la población general pueden existir más). Los marcadores en los que la secuencia repetida es corta
(2 a 4 nucleótidos) se denominan también microsatélites ó STR (“Short Tandem Repeats",
Repeticiones Cortas en Tandem), y están homogéneamente distribuidos por todo el genoma. Los
marcadores en los que la secuencia repetida es más larga (decenas a cientos de nucleótidos) se
denominan minisatélites, y han sido muy importantes en los estudios de genética forense ya que
permiten establecer una huella genética única para cada individuo. Los minisatélites son más
abundantes hacia las regiones teloméricas de los cromosomas, y debido a su tamaño en principio
deben detectarse mediante Southern blot e hibridación. En cambio, los marcadores de tipo microsatélite
CAPÍTULO 4: GEOGRAFÍA DEL GENOMA HUMANO
43
pueden detectarse mediante PCR y están distribuidos uniformemente por el genoma, por lo que su
análisis es más rápido y sencillo y proporcionan mayor información.

Los SNP (pronunciado ―snip‖) son polimorfismos de un solo nucleótido (“Single Nucleotide
Polymorphisms”) en los que el simple cambio de un nucleótido en una secuencia genómica da lugar a
distintos alelos. Lógicamente, para cada posición sólo puede haber cuatro alelos como máximo (A, C, G
ó T), aunque lo habitual es que un SNP tenga dos alelos en la población general. Se estima que, como
promedio, hay al menos un SNP cada 500-1.000 pares de bases, de los cuales un porcentaje
importante son polimorfismos codificantes (es decir, cambian un aminoácido en la proteína codificada
por el gen) y constituyen la principal fuente de variabilidad genética inter-individual, puesto que dos
individuos cualesquiera tienen alrededor de un 0,1% de sus nucleótidos distintos. La gran ventaja de
los SNP sobre los demás tipos de marcadores, además de ser tan abundantes y estar muy
uniformemente distribuidos por todo el genoma humano, es la posibilidad de analizarlos mediante
métodos automatizables a gran escala, como los microarrays, de manera que se pueden determinar
cientos ó miles de SNPs a la vez en un mismo experimento.
La
Figura
4.2
ilustra
los
tipos
de
marcadores
más
utilizados
en
la
construcción de mapas de ligamiento genético en humanos.
El objetivo inicial del PROYECTO GENOMA era crear un mapa genético (de ligamiento) con marcadores
distribuidos por todo el genoma con una distancia media de 1 cM entre marcadores. Los mapas genéticos
se basaron en un primer mapa publicado en 1987, hecho con 393 marcadores tipo RFLP agrupados en 23
grupos de ligamiento, con una distancia media entre marcadores superior a 10 cM. El primer mapa genético
de todo el genoma fue el realizado por un centro de investigación francés llamado Généthon en 1992, e
incluía 803 marcadores tipo microsatélite.
Los mapas físicos, en cambio, reconstruyen la estructura de un segmento de ADN, determinando los tipos
y orden relativo de las distintas secuencias que lo componen, sus tamaños, y las distancias entre ellas. Para
la construcción de mapas físicos se utiliza un tipo de marcador distinto, que veremos más adelante.
Lógicamente, el mapa físico de mayor resolución posible es la secuencia completa de ese segmento
(resolución de 1 nucleótido), pero también es posible realizar mapas de menor resolución (un ejemplo,
mapas de restricción). El tipo de marcador utilizado en la creación de mapas físicos se denominó STS
(Sequence-Tagged Site = Sitio Etiquetado por su Secuencia). Un STS es un pequeño fragmento de ADN
(unos pocos cientos de pares de bases) de secuencia y localización genómica conocidas, fácilmente
amplificable mediante PCR. Durante años se habían identificado un buen número de marcadores STS,
mediante la secuenciación parcial de clones previamente mapeados por otros métodos. Además, los
microsatélites utilizados en la creación de mapas de ligamiento también pueden convertirse fácilmente en
STS, leyendo la secuencia que flanquea las repeticiones del microsatélite. Gracias a esto, hoy contamos con
una lista ordenada de STS que están distribuidos por todo el genoma humano, cuya secuencia y condiciones
de amplificación mediante PCR son fácilmente accesibles a todo investigador. El PROYECTO GENOMA se
propuso inicialmente conseguir mapas de marcadores tipo STS distribuidos por todo el genoma y con una
distancia media entre marcadores en torno a 0.1 Mb (es decir, 100kb).
Utilizando estos marcadores STS, se pudieron construir mapas físicos, es decir mapas compuestos por
clones de bibliotecas genómicas, capaces de albergar insertos de gran tamaño. Existen distintos vectores de
este tipo, entre los que destacan los vectores tipo YAC (Yeast Artificial Chromosome), PAC (P1-phage
Artificial chromosome) y BAC (Bacterial Artificial Chromosome). Cada uno de estos vectores de clonación
44
GENÉTICA HUMANA
tiene características específicas, ventajas e inconvenientes. En concreto, los YAC son los vectores que
permiten albergar un mayor tamaño de inserto (hasta 2 Megabases), pero son bastante inestables (tienden
a perder fragmentos del inserto cuando se replican) y tienen un porcentaje relativamente alto de clones
quiméricos (es decir, clones en los que el inserto está en realidad formado por dos fragmentos procedentes
de cromosomas distintos). Los PACs y BACs, en cambio, sólo permiten clonar insertos de unas 100 a 150
kilobases de tamaño (por lo que son necesarios muchos más clones para cubrir completamente un
segmento genómico determinado), pero en cambio son muy estables y el porcentaje de quimerismo es muy
pequeño. Aunque los YACs han sido el vector principalmente utilizado al principio de los años 90, hoy en día
han sido desplazados por PACs y BACs.
La Figura 4.3 explica la utilización de marcadores STS para crear un contig de
clones que cubran una región del genoma.
DS16B3
DS16C4
STS 8
STS 6
STS 7
DS16A2
STS 4
STS 3
STS 5
DS16A1
STS 1
STS 2
CONTIG: conjunto de clones solapantes
que cubren una región del genoma
La secuenciación de cada clon permite reconstruir
la secuencia original de esa región genómica
GGAGACTACGGAGATTACCTACGGGACTACAGAAGGAGACTACGGAGAGTACCTACGGGACTGTCT
Los primeros mapas físicos del genoma humano estaban compuestos por contigs de YACs que cubrían
parcialmente el genoma humano, siendo el mejor ejemplo el mapa creado también por Généthon en
1993. Este mapa supuso un avance enorme porque —aunque no cubría muchas regiones genómicas—
sirvió como punto de partida para elaborar mapas más completos con vectores más fiables y manejables,
como BACs y PACs.
El PROYECTO GENOMA hizo una revisión de sus objetivos en 1993, teniendo en cuenta los progresos
realizados en los 3 años anteriores, y estableció nuevas metas para los siguientes 5 años (1993-1998). En
resumen, estos nuevos objetivos fueron:

conseguir un mapa genético con resolución de 2 a 5 cM entre marcadores.

conseguir un mapa físico con STS espaciados regularmente cada 0.1 Mb (lo que significaba identificar y
localizar la posición de —como mínimo— unos 30.000 STS).
CAPÍTULO 4: GEOGRAFÍA DEL GENOMA HUMANO
45

desarrollar nuevas tecnologías para la identificación de genes a partir de ADN genómico.

desarrollar nuevas tecnologías de secuenciación y completar 80 Mb de secuencia confirmada para
todos los organismos que estaban siendo secuenciados por los distintos proyectos.

Potenciar la genómica comparada: completar las secuencias de E. coli, S. cerevisiae y C. elegans, y
comenzar los proyectos de secuenciación de los genomas de Drosophila y de ratón.
Cuando en 1998 se revisaron los avances realizados en esos cinco años, con el fin de diseñar un nuevo plan
quinquenal, los resultados habían sido realmente prometedores: en Septiembre de 1994 se publicó un
mapa genético de todo el genoma humano integrado por 4.000 marcadores tipo microsatélite y 1.800
marcadores tipo RFLP, con una distancia media entre marcadores de 0.7 cM. Esto superaba en más de 3
años el objetivo propuesto inicialmente. Por su parte, Généthon publicó en 1995 otro mapa físico de YACs
que estaba formado por 255 contigs (con un tamaño medio de 10 Mb cada contig) y cubría el 75% del
genoma humano. Durante esos años se continuaron desarrollando nuevos marcadores tipo STS, hasta llegar
en 1998 a un mapa que contenía 52.000 STS (casi el doble de los inicialmente propuestos).
Por lo que respecta a la secuenciación, en octubre de 1998 se había obtenido un total de 180 Mb de
secuencia del genoma humano (6% del total), además de 111 Mb de secuencia de otros organismos, muy
por encima de lo previsto en el plan 1993-1998. Además, se había completado la secuencia de E. coli y de
S. cerevisiae, éste último el primer organismo eucariota en ser secuenciado totalmente. Esto fue posible
gracias a importantes avances en la tecnología de secuenciación, que se hizo progresivamente más rápida,
fiable y barata. Posteriormente, en diciembre de 1998, se completó la secuencia de C. elegans, el primer
organismo multicelular secuenciado en su totalidad con un genoma de unas 97 Mb.
Por tanto, en 1998 el PROYECTO GENOMA se fijó un nuevo plan de objetivos hasta el año 2003, en el
que se incluían 6 metas concretas:
1. Completar la secuencia del genoma humano para 2003 (año que coincidía con el 50º aniversario del
descubrimiento de la doble hélice por Watson y Crick), creando un primer borrador de trabajo en el
2001. Este objetivo se aceleró enormemente por la competencia de la empresa privada Celera
Genomics (también iniciativa de Craig Venter), que se propuso secuenciar todo el genoma humano,
utilizando una estrategia distinta al consorcio internacional del PROYECTO GENOMA, con el fin de
obtener la propiedad intelectual y poder explotar esa información con fines comerciales. A pesar de los
problemas suscitados inicialmente por la fuerte competencia entre ambos proyectos, el 26 de junio de
2000 se produjo el anuncio oficial de que se había alcanzado un primer borrador del 87% de la
secuencia del genoma humano. Este primer borrador fue publicado el 15 de Febrero de 2001 en las
revistas Nature (el mapa del Consorcio Internacional) y Science (el mapa de Celera Genomics).
La Figura 4.4 muestra el proceso general de utilizado por el Consorcio
Internacional para la secuenciación del Genoma Humano.
2. Continuar el desarrollo y la innovación de las tecnologías de secuenciación. Como ya se ha comentado,
éste ha sido un factor determinante en el avance del PROYECTO GENOMA.
3. Estudiar la variación en el genoma humano. Como hemos visto, los SNP se encuentran en el genoma
humano a razón de 1 por cada kilobase, como promedio, y representan las diferencias genéticas entre
individuos de una misma especie. Como se verá en el Capítulo 11, la creación de mapas densos de SNP
permitirá llevar a cabo estudios de asociación para detectar los genes que están implicados en
46
GENÉTICA HUMANA
enfermedades complejas, debidas a alteraciones en muchos genes —siendo la contribución de cada gen
a la enfermedad pequeña― y, por tanto, difíciles de detectar por otros métodos de ligamiento
paramétrico.
4. Desarrollar tecnología para la “genómica funcional”, es decir, identificar todos los genes y determinar
cuál es la función de cada gen. La gran revolución en las estrategias de identificación de regiones
codificantes (es decir, genes) comenzó con la idea de Craig Venter de secuenciar al azar y a gran escala
fragmentos de ADNc de bibliotecas obtenidas a partir de diversos tejidos. Estos fragmentos de secuencia
se denominaron "Etiquetas de Secuencia Expresada" (EST, Expressed Sequence Tags), ya que —en
el fondo— cada una representa un fragmento de un ARNm (una secuencia expresada en un tejido
concreto). En pocos años, la base de datos de EST creció de manera exponencial, con cientos de miles
de secuencias expresadas procedentes de distintas bibliotecas de ADNc. Como algunos de estos EST
proceden de un mismo ARNm, se creó una colección no redundante llamada UNIGENE que agrupa los
EST por familias, siemdo cada familia representativa de un único ARNm. Poco después comenzaron
también proyectos internacionales para mapear secuencias de UNIGENE, de manera que en 1994 se
publicó un primer mapa con la localización de 16.000 EST correspondientes a genes distintos, y en
1998 se publicó un segundo mapa de 41.664 EST, que representaban 30.181 genes distintos. Cuando
se conozca el catálogo completo de genes de nuestro genoma, será necesario estudiar la expresión de
cada gen en distintos tejidos y en distintas situaciones fisiológicas y patológicas, en respuesta a distintos
factores ambientales, etc. Lógicamente, esto será el objeto de la investigación biomédica de buena parte
del siglo XXI.
5. Genómica Comparada. El análisis comparado de los genomas de varias especies es de gran utilidad
para identificar mecanismos biológicos conservados durante la evolución (por lo que son especialmente
importantes), estructura y función de genes ortólogos, etc. Aunque el plan para 1998-2003 se propuso
conseguir la secuencia completa del genoma de Drosophila para el año 2002, esta meta se cumplió en
abril del año 2000 gracias a la colaboración de laboratorios y Universidades con Celera Genomics,
descifrando unas 120 Mb de secuencia que comprenden la práctica totalidad de la eucromatina de este
insecto. El nuevo gran reto ahora es conseguir la secuencia completa del genoma de otras especies de
mamíferos: el primer borrador completo del genoma de ratón se obtuvo en 2002 y el del genoma de
chimpancé en 2005.
6. Implicaciones éticas, legales y sociales del PROYECTO GENOMA. Es importante tener consciencia de
la influencia que va a tener el Proyecto Genoma y sus aplicaciones sobre los individuos y las sociedades.
Cuestiones como el diagnóstico de enfermedades que no tienen tratamiento, la extensión de una
mentalidad eugenésica que lleve a la discriminación por razón de deficiencias genéticas, el diagnóstico
prenatal de alteraciones genéticas que confieren predisposición a sufrir enfermedades que se
manifestarán en la edad adulta, la detección de rasgos psicológicos con base
genética, la
confidencialidad de la información genética de los individuos (y la posible discriminación laboral) serán
una constante en los debates sociales de este siglo, y es importante llevar a cabo una labor de
divulgación seria para que la sociedad pueda discutir de modo sosegado y bien fundamentado las bases
éticas sobre las que sostener las aplicaciones biomédicas de la biotecnología en los años que se
avecinan.
7. Desarrollo de herramientas bioinformáticas (bases de datos y herramientas de análisis de datos) que
puedan ser compartidas por la comunidad científica. Será especialmente importante el desarrollo de
herramientas informáticas que permitan identificar exones y predecir la estructura de genes en grandes
CAPÍTULO 4: GEOGRAFÍA DEL GENOMA HUMANO
47
secuencias genómicas, así como plataformas de genómica funcional para el análisis de la expresión de
miles de genes a la vez.
8. Formación en genómica: favorecer que científicos y académicos se dediquen a la investigación
genómica y a divulgar y aumentar el conocimiento público de los distintos aspectos del PROYECTO
GENOMA.
Finalmente, la primera versión esencialmente completa del genoma humano fue anunciada
oficialmente el 14 de abril de 2003, cubriendo un total de 3.069 Mb (92.3% del total estimado del
genoma humano) con un 99.99% de fiabilidad en cada posición secuenciada. El análisis de la secuencia
publicada permite hacerse una idea bastante aproximada de la estructura de nuestro genoma, su
composición y algunas de sus características funcionales, como se explica a continuación.
Estructura del genoma humano y variación inter-individual
El genoma humano nuclear tiene un tamaño aproximado de 3.200 Mb (megabases), es decir tres mil
doscientos millones de pares de bases. Esta cifra total incluye unas 2.950 Mb de eucromatina y unas 250 Mb
de heterocromatina (formada, como veremos, por ADN satélite). Esta cifra se refiere al genoma haploide,
de manera que las células somáticas (diploides) contienen el doble.
La Figura 4.5 muestra una visión general de los distintos tipos de secuencias
que constituyen el genoma humano.
Una primera clasificación del genoma humano distingue, por un lado, los genes y secuencias relacionadas
con genes (exones, intrones, regiones no traducidas que contienen elementos reguladores, etc), y por otro
todo el ADN que está entre los genes, llamado ADN extragénico o ―de relleno‖ y que no codifica ninguna
proteína ni contiene ningún elemento funcional. Curiosamente, la mayor parte del genoma humano (un
70%) está formada por este último, de forma que sólo un 30% del genoma humano incluye secuencias
relacionadas con genes. Lo más sorprendente es que de este 30% sólo un 5% está constituído por ADN
codificante (exones), siendo el resto ADN no-codificante asociado a genes. Por tanto, resulta que sólo un
1,5-2% del total del genoma humano es ADN codificante. El ADN extragénico está formado, sobre
todo, por los componentes repetitivos del genoma humano que se explicarán más adelante, aunque también
hay secuencias únicas o en bajo número de copia.
Desde la publicación del primer borrador del Genoma Humano en febrero de 2001, podemos dar unos
valores promedio estimados a partir de los datos publicados:

Se estima que el genoma humano contiene en torno a los 20.000 - 25.000 genes.

Alrededor de un 50% del genoma humano está constituido por ADN repetitivo.

Se puede estimar la densidad media de genes es de 1 gen cada 100 kb, aunque existen regiones ricas
en genes (algunas zonas del cromosoma 19, por ejemplo) y otras regiones que son muy pobres en
genes (como el cromosoma Y). Por tanto, se puede deducir una frecuencia media de 10 genes por
cada Mb de secuencia.

El tamaño promedio de un gen humano es de 20-30 kb, aunque hay grandes diferencias de unos
genes a otros.
48

GENÉTICA HUMANA
El número de exones que forman un gen es muy variable (desde genes que tienen un solo exón hasta
algunos genes con 100 exones ó más), pero podemos establecer un valor promedio de 7-8 exones por
gen.

El tamaño medio de un exón es de 150 nucleótidos. Por lo que respecta a los intrones, en cambio,
existe una enorme variabilidad de tamaños, y no es infrecuente encontrar en casi todos los genes
algún intrón de gran tamaño.

El tamaño medio de un ARNm es de 1,8-2,2 kb incluyendo las regiones no-traducidas flanqueantes. La
longitud media de una región codificante es de 1,4 kb.
Una de las características más evidentes del borrador de nuestro genoma es su heterogeneidad. En
efecto, la secuencia no es uniforme, sino que muchas de sus características (riqueza en C+G frente a A+T,
riqueza en genes, etc) se distribuyen heterogéneamente, con regiones de gran abundancia flanqueadas por
regiones en que esos parámetros son más escasos. Así por ejemplo, el contenido medio de G+C del
genoma humano es del 41%, menor de lo teóricamente esperado. Además, si el genoma se divide en
"ventanas" de 20 kb se observan regiones con valores muy alejados del promedio, con una dispersión 15
veces mayor de lo que sería esperable si la distribución fuese uniforme. La distribución de %G+C de estas
ventanas no se ajusta a una distribución normal, sino que está desviada hacia valores bajos.
Además, se ha comprobado que los genes tienden a concentrarse en las ventanas más ricas en G+C.
Esto se conocía ya de antiguo, y de hecho se había acuñado el término isocoro para designar las regiones
genómicas que son homogéneas en cuanto al contenido en G+C y que pueden separarse mediante
gradientes de densidad. Se distinguen isocoros L e isocoros H, según su contenido en G+C sea bajo
(Low) ó alto (High), y dentro de cada isocoro hay varios subgrupos. La tabla que se presenta a continuación
resume algunas características importantes de los distintos isocoros:
Isocoro
%
% del
Contenido
Mb ADN
Densidad
GC
genoma
Genes %
L1
38
30
48
1,860
1 cada 130 kb
L2
41
32
H1
44
19
27
870
1 cada 100 kb
H2
49
10
H3
53
9
25
270
1 cada 35 kb
de genes
Como puede apreciarse, existe una relación directa entre el contenido de una región genómica en
nucleótidos G+C y su riqueza en genes. Es decir, hay en el genoma humano unas regiones con mayor
riqueza de genes, regiones que a su vez son las que tienen un mayor porcentaje de nucleótidos G+C.
Otro hallazgo inesperado en nuestro genoma ha sido la presencia de mayor número de duplicaciones del
que se había estimado hasta entonces. De hecho, el análisis muestra alrededor de un 5% de duplicaciones
segmentarias, definidas como dos ó más segmentos cromosómicos >1 kb con >90% de identidad de
secuencia; dicho nivel de homología corresponde a una antigüedad de unos 40 millones de años. Las
duplicaciones intracromosómicas (las copias están en el mismo cromosoma) tienen un tamaño medio de
unas 100 kb, mientras que las duplicaciones intercromosómicas (entre cromosomas distintos) son más
pequeñas (10-50 kb). Las duplicaciones segmentarias son más frecuentes en regiones centroméricas y
cerca de los telómeros (donde pueden llegar a constituir un 25% de la secuencia). Los centrómeros, en
concreto, están flanqueados por regiones ricas en duplicaciones intercromosómicas procedentes de regiones
CAPÍTULO 4: GEOGRAFÍA DEL GENOMA HUMANO
49
eucromáticas de otros cromosomas, que se han ido transponiendo a zonas pericentroméricas a una
velocidad de 6-7 eventos por millón de años durante la evolución de primates. Las duplicaciones
intracromosómicas pueden dar lugar a alteraciones genómicas, como veremos más adelante.
La
Figura
4.6
muestra
esquemáticamente
los
tipos
de
duplicaciones
segmentarias.
El análisis de la secuencia también ha mostrado la alta cantidad de pseudogenes que hay en el genoma
humano. Como su nombre indica, los pseudogenes son versiones ―incorrectas‖ de genes, que contienen
diversos tipos de mutaciones y habitualmente no se transcriben. Se dividen en pseudogenes no
procesados y pseudogenes procesados. Los primeros son copias de un gen, habitualmente originadas por
duplicación del gen original y posteriores mutaciones que hacen que la copia pierda su capacidad
codificante. Contienen exones e intrones, pero que carecen de promotor y habitualmente tienen codones de
parada prematuros. En cambio, los pseudogenes procesados son copias del ARN mensajero de un gen, que
se ha retrotranscrito e insertado en otra posición del genoma (de ahí que se denominen también
retropseudogenes). No tienen intrones, y tampoco tienen capacidad codificante por la ausencia de promotor
y por la presencia de codones de parada. Se han identificado unos 11.000 pseudogenes en el genoma
humano, de los que la mayor parte (unos 8.000) son pseudogenes procesados. En total, se estima que el
número de pseudogenes en nuestro genoma puede llegar a unos 20.000. De todas formas, todos los
pseudogenes detectados se originan a partir de tan sólo unos 2.500 genes funcionales, de modo que la
mayor parte de los genes no tienen ningún pseudogen en el genoma.
La Figura 4.7 muestra la estructura de los distintos tipos de pseudogenes.
Recientemente se han encontrado 481 segmentos >200 pares de bases totalmente conservados (100% de
identidad sin gaps) en rergiones ortólogas de humano, rata y ratón, y la gran mayoría están también
conservados en pollo y perro (95 and 99% de identidad, respectivamente). Muchas también están
conservadas en pez. Estos "elementos ultraconservados" se solapan con exones de genes implicados en
el procesamiento de ARN, y también son abundantes en intrones de genes relacionados con el desarrollo o
con la regulación de la transcripción. Junto con las más de 5000 secuencias >100 nucleótidos que están
totalmente conservadas en los 3 mamíferos secuenciados, estos fragmentos constituyen una nueva clase de
elementos genéticos cuya función está por determinar, pero el hecho de que están más conservados que las
proteínas indica que deben jugar algún papel importante.
También es importante dedicar unas líneas a describir la presencia de genes que dan lugar a microARN.
Como es sabido, el estudio del mecanismo de interferencia de ARN ha llevado a la identificación de ARN
interferentes endógenos en los genomas de eucariotas, incluido el genoma humano. Estos ARN se
denominan microARN (miARN) y se transcriben a partir de genes con un promotor de ARN-polimerasa II.
Estos genes tienen un segmento palindrómico, de modo que el ARNm primario forma un pri-miARN que
contiene una horquilla de ARN bicatenario; este pri-miARNm es procesado dentro del núcleo de la célula por
una ARNasa tipo III llamada DROSHA y esto da lugar a un pre-miARN, una ARN bicatenario con forma de
horquilla de unos 70 nucleótidos de tamaño. El pre-miARN sale del núcleo y es procesado en el citoplasma
por Dicer, originando un miARN de unos 22 nucleótidos. Éste entra a formar parte del complejo RISC
(denominado miRISC para los miARN) y regula la expresión de genes diana mediante degradación de sus
mensajeros o por represión de la traducción. Actualmente se han identificado más de 300 genes de
miARN en el genoma humano, y se calcula que puede haber en torno a 500. La mayoría de estos genes
se localizan en intrones de genes codificantes, y además están bastante conservados en primates. Dado
50
GENÉTICA HUMANA
que cada uno de estos miARN puede regular la expresión de varios genes diana, se estima que hasta un 2030% de todos los genes del genoma humano pueden estar regulados por miARN, lo que les
confiere una extraordinaria importancia.
La secuenciación del genoma humano ha permitido también estudiar la variación genética interindividual, es decir, las diferencias genéticas que están en la base de las diferencias fenotípicas entre
individuos. Esto tiene gran relevancia médica, porque muchas de estas variantes pueden ser también causa
de la distinta susceptibilidad a desarrollar enfermedades o la diferente respuesta a fármacos que tienen
personas distintas. Uno de los tipos más importantes de variabilidad genética es el constituido por los
cambios en un nucleótido de la secuencia, conocidos ―como hemos visto― con el nombre de SNP. Uno
de los objetivos del PROYECTO GENOMA HUMANO era el estudio de la diversidad genética, y esto ha
cristalizado en otro proyecto internacional denominado Proyecto HapMap que se propone precisamente
identificar los SNP más frecuentes en el genoma humano en individuos de diferentes grupos étnicos. En
octubre de 2005, el Proyecto Hapmap publicó un primer mapa que contiene 1.007.329 SNP con una
distancia media entre ellos de 5 kb, con una frecuencia del alelo más frecuente igual ó superior al 5% (es
decir, presentes en al menos el 5% de la población). Todos estos SNP fueron genotipados en 269
individuos de cuatro grupos raciales: 90 de raza yoruba, de Nigeria; 90 caucasianos de Utah; 45 de
raza han, de China; y 44 japoneses. La segunda fase de este Proyecto se propone genotipar otros 5
millones de SNP. La inspección de estos mapas permite hacerse una idea de la variación en el genoma,
tanto entre individuos como entre distintos grupos raciales. Además, estos datos han permitido comprobar
que esta variación se agrupa en bloques, de modo que todos los SNP de un mismo bloque se heredan
juntos. En un capítulo posterior veremos la importancia de estos bloques para estudiar la asociación de SNP
concretos con la susceptibilidad a padecer enfermedades.
La Figura 4.8 muestra la estructura de los haplotipos formados por los alelos
de varios SNP cercanos.
Otro tipo de variación que se ha descubierto al analizar la secuencia del genoma humano es la originada por
diferencias en el número de copias de grandes segmentos genómicos. Al analizar genomas de
distintos individuos, se ha visto que existen unas 200-300 regiones genómicas de tamaño grande (entre
10 y 50 kilobases) cuyo número de copias en el genoma es diferente de unos individuos a otros. Este tipo
de variaciones, llamadas LCV (Large-scale Copy number Variations) ó CNP (Copy Number Polymorphisms)
pueden ser deleciones ó repeticiones en tandem. Una característica de todas estas regiones es que están
flanqueadas por duplicaciones segmentarias, y esto hace pensar que la variación en el número de
copias es el resultado de reordenaciones entre esos elementos flanqueantes. Aunque su papel biológico
todavía no está claro, los CNP pueden tener importancia en la variación genética inter-individual
que explica las diferencias en la predisposición a desarrollar enfermedades.
Finalmente, se ha catalogado también otro tipo de variación consistente en polimorfismos de
inserción/deleción pequeños (de tamaños entre 1 nucleótido a 10 kb). Se han detectado varios cientos
de miles, y se estima que en total hay alrededor de 1,5 millones de estos polimorfimos en el genoma
humano. Aunque se distribuyen por todo el genoma, se ha visto que en algunas regiones son especialmente
frecuentes. Muchos de ellos están dentro de genes, y pueden causar alteraciones cuando afectan al
promotor o a la región codificante (exones).
El ADN Repetitivo
CAPÍTULO 4: GEOGRAFÍA DEL GENOMA HUMANO
51
Como hemos visto al principio de este Capítulo, hasta un 50% del Genoma Humano está constituido por
ADN repetitivo, antiguamente conocido como "ADN basura". Por su importancia, a continuación
estudiamos con mayor detalle su composición y los distintos tipos de secuencias que lo forman. Ya se ha
mencionado que podemos encontrar ADN repetitivo tanto en el ADN codificante (en los genes y secuencias
relacionadas) como en el ADN no-codificante, pero la mayor parte se encuentra en el ADN no-codificante.
Quizás el único ejemplo de ADN repetitivo codificante que merece la pena reseñar es el correspondiente al
ADN ribosomal, que se concentra en los brazos cortos de los cromosomas acrocéntricos (13, 14, 15, 21 y
22) y está formado por tres genes que dan lugar a los tres ARN ribosomales de 5,8S, de 18S y de 28S. Los
tres genes están juntos formando un bloque que mide unas 13 kilobases. Estos bloques se encuentran
repetidos unas 50 veces, separados entre sí por un espaciador intergénico que mide unas 30 kilobases. En
conjunto, el ADN ribosomal ocupa un tamaño de unas 2 Megabases.
En el ADN no-codificante, tanto intragénico (es decir, intrones y otras regiones no-codificantes
relacionadas con genes) como extragénico, podemos encontrar diversos tipos de elementos repetidos. En
general, se trata de una secuencia de ADN que se repite en el genoma cientos o miles de veces. Estas
repeticiones pueden encontrarse en tándem (es decir, seguidas una detrás de otra) o dispersas.
El ADN repetido en tandem se divide en varios grupos según el tamaño total que origina la repetición:

El genoma humano contiene en total unas 250 Mb de ADN satélite (llamado así porque al separar el
ADN genómico en gradientes de densidad aparece como 3 bandas "satélites" de la banda principal). El
ADN satélite está formado por la repetición de una secuencia de ADN miles de veces en tandem, es
decir unas copias pegadas a otras. Esto da lugar a regiones repetidas con tamaños que van desde 100
kb hasta varias megabases. Por ejemplo, el ADN Satélite 1 es una secuencia de 42 nucleótidos,
mientras que en el Satélite 2 la secuencia repetida es (ATTCCATTCG) y en el Satélite 3 se repite el
pentámero (ATTCC). Un tipo de ADN satélite muy importante es el ADN alfoide ó Satélite alfa, en el
que la secuencia repetida tiene un tamaño de 171 nucleótidos, y que forma parte del ADN de los
centrómeros de los cromosomas humanos. Otros tipos de ADN satélite son el Satélite beta (repetición
de 68 nucleótidos) y el Satélite gamma (repetición de 220 nucleótidos), que también se encuentran
en la cromatina centromérica de varios cromosomas.

El ADN de tipo Minisatélite está formado por secuencias de 6 - 25 nucleótidos que se repiten en
tándem hasta dar un tamaño total entre 100 nucleótidos y 20 kb. Un ejemplo de ADN Minisatélite es la
repetición que forma los telómeros de los cromosomas humanos, en los que el hexanucleótido
(TTAGGG) se repite miles de veces en tándem dando lugar a bloques de 5 - 20 kb de tamaño. Algunas
repeticiones de este tipo son polimórficas, y dan lugar a los marcadores de tipo VNTR que hemos
mencionado en un apartado anterior.

El ADN de tipo Microsatélite está formado por secuencias de 2, 3 ó 4 nucleótidos que se repiten hasta
dar bloques con un tamaño total habitualmente no superior a 150 nucleótidos. Hay repeticiones de este
tipo por todo el genoma humano, y muchas de ellas son muy útiles como marcadores genéticos porque
el número de repeticiones varía entre individuos. Ejemplos de ADN microsatélite son los dinucleótidos
(CA), ó las repeticiones de trinucleótidos (CAG).
El ADN repetido disperso está formado por secuencias que se repiten miles de veces en el genoma
humano, pero no en tándem sino de manera dispersa. Este tipo de repeticiones constituyen un 45% de todo
el genoma humano, y se clasifican en función del tamaño de la unidad repetida:
52

GENÉTICA HUMANA
Los SINE (Short Interspersed Nuclear Elements, elementos nucleares dispersos cortos) suponen un
13% del genoma humano. Son secuencias cortas repetidas miles de veces en el genoma humano de
forma dispersa. El principal SINE es la familia de elementos Alu, que es específica de primates y
constituye un 10% de nuestro genoma. Un elemento Alu está formado por una secuencia de 250 - 280
nucleótidos, con unas 1.500.000 copias por genoma y una repetición cada 4 kb como promedio. Es un
elemento relativamente rico en guaninas+citosinas (56% de contenido en CG, mientras que el
contenido promedio del genoma humano es del 41%). Se localiza predominantemente en la bandas R
de los cromosomas humanos. Está flanqueado por pequeñas repeticiones directas (en la misma
orientación). Su estructura es la de un dímero no idéntico, ya que el segundo monómero es 30
nucleótidos mayor que el primero. Contiene colas poli-A al final de cada monómero, y se transcribe por
la ARN polimerasa III a partir de un promotor interno, pero no codifica ninguna proteína. Actúa
como un retrotransposón, ya que puede copiarse e insertarse en otras regiones del genoma.

Los LINE (Long Interspersed Nuclear Elements, o elementos nucleares dispersos largos) constituyen un
20% del genoma humano. Son secuencias con un tamaño de varias kilobases, agrupados en distintas
familias. El principal LINE es el llamado LINE-1 ó L1, formado por una secuencia de unas 6 kb repetida
unas 800,000 veces en el genoma (aunque muchos de estos elementos no están completos, sino
truncados y les falta la parte 5’), llegando a constituir alrededor de un 15% del genoma. Estos
elementos, al contrario que los SINE, no son ricos en guaninas+citosinas (tienen un 42% de
citosinas+guaninas, que es cercano al contenido promedio del genoma humano) y se localizan
predominantemente en las bandas G de los cromosomas. Un elemento L1 codifica dos proteínas: una
ARN-binding protein en el marco de lectura ORF1 y una proteína con actividad endonucleasa y
retrotranscriptasa en el marco de lectura ORF2. Está flanqueado por unas pequeñas repeticiones
directas (en la misma orientación) y termina en una cola poli-A. Los elementos LINE son
retrotransposones, puesto que pueden copiarse a sí mismos a través de un intermediario ARN y
transponerse a otras localizaciones genómicas. Según el modelo más aceptado, el elemento se
transcribe por la ARN polimerasa II a partir de un promotor interno, sus productos proteicos se unen a
la cola poli-A de su propio ARN mensajero y el complejo se inserta en el ADN genómico por la acción
combinada de la endonucleasa (que corta dentro de regiones ricas en AT que llevan la secuencia
LINE
Nuevo LINE (copia en
otra localización)
transcripción
ARNm
Unión de las
proteínas a su
propio ARNm
Reparación
traducción
Rotura
endonucleolítica
Retrotranscripción
CAPÍTULO 4: GEOGRAFÍA DEL GENOMA HUMANO
53
TTTT↓A) y de la retrotranscriptasa. Las proteínas codificadas por los LINE son utilizadas también para la
retrotransposición de elementos SINE y de pseudogenes procesados, por lo que pueden jugar un
importante papel como elemento modificador del genoma. De hecho se ha visto que la secuencia
propia de los L1 tiene la propiedad de inhibir la transcripción, de ahí que los niveles de ARNm y
proteínas codificadas por los L1 en las células sea muy bajo. Lo más interesante es que también
pueden modificar la transcripción de los genes en cuyos intrones hay abundancia de estos
elementos: un 80% de los genes humanos tienen L1 en sus intrones, y la densidad en L1 correlaciona
negativamente con los niveles de expresión de estos genes. Por tanto, su papel tanto en la evolución de
genomas como en la regulación génica le confieren una gran importancia. Se acabó el mito del "ADN
basura".
La Figura 4.9 ilustra el mecanismo de retrotransposición de los LINE.

Los HERV (retrovirus endógenos humanos), representan copias de los retrovirus humanos que se han
ido integrando en el genoma humano en el curso de la evolución y con frecuencia son el origen de
proto-oncogenes celulares. Habitualmente representan copias truncadas del genoma de estos virus, y
constituyen alrededor de un 8% del genoma (hay unas 450.000 copias). Como habitualmente
conservan alguna de las repeticiones terminales largas de estos genomas, se denominan también
repeticiones tipo LTR (Long Terminal Repeat).

Nuestro genoma también contiene unas 300.000 copias de elementos repetidos originados por
transposones ADN, lo que supone un 3% del total del genoma. Estos elementos contienen el gen
(habitualmente truncado) de la transposasa, flanqueado por repeticiones invertidas. De entre las
distintas familias que existen cabe destacar el tipo MER1 ó MER2 y los elementos mariner (Hsmar2),
responsables de algunas reordenaciones cromosómicas importantes en patología humana.
La Figura 4.10 muestra la estructura de los distintos tipos de repeticiones
dispersas del genoma humano.
Es importante hacer algún comentario sobre la movilidad de los retroelementos dispersos. Tanto los LINE
como los Alu que estén completos pueden, en teoría, copiarse e insertarse en otra posición del genoma a
través de un intermediario ARNm. De hecho, esto sucede habitualmente, aunque por fortuna con muy baja
frecuencia. Se calcula que 1 de cada 100-200 nuevos nacimientos lleva una inserción nueva de un Alu o de
un L1, que pueden ser causa de enfermedades por diversos mecanismos. Esta tasa de nuevas inserciones
es mucho más baja que en otros mamíferos. Por lo que respecta a los L1, se calcula que existen
actualmente unos 5000 elementos completos en el genoma humano, de los cuales unos 90 son activos
(capaces de retrotransposición). El potencial patogénico de estos elementos viene dado por la propia
capacidad de insertarse aleatoriamente en el genoma (e interrumpir genes), por la desregulación de la
expresión de genes cercanos (por los elementos promotores de los LINE y SINE), pero sobre todo por
recombinación ilegítima entre copias de Alu o L1 que están en localizaciones cromosómicas distintas.
Curiosamente, los elementos Alu causan este tipo de recombinación con más frecuencia que los L1,
especialmente en algunos genes que sufren duplicaciones o deleciones por recombinación entre secuencias
Alu.
Para finalizar, es interesante tener una visión de conjunto de la localización de los distintos tipos de
elementos repetidos en el genoma humano, representados sobre un cariotipo convencional. Como ya se ha
dicho, el ADN ribosomal se localiza en el brazo corto de los cromosomas acrocéntricos. El satélite alfa
54
GENÉTICA HUMANA
puede verse en todos los centrómeros. El satélite beta, en cambio, está en localización pericentromérica
en los cromosomas acrocéntricos y en la constricción secundaria del cromosoma 1. El satélite gamma es
pericentromérico en los cromosomas 8 y X. El satélite 1 está en los centrómeros de los cromosomas 3 y 4,
además de encontrarse también en el brazo corto de los cromosomas acrocéntricos (distal al ADN
ribosomal). El satélite 2 es pericentromérico en los cromosomas 2 y 10, además de formar la constricción
secundaria de los cromosomas 1 y 16. Finalmente, el satélite 3 está en la constricción secundaria de los
cromosomas 9 e Y, así como en el brazo corto de los cromosomas acrocéntricos (proximal al ADN
ribosomal). Los elementos dispersos se encuentran distribuidos por todo el genoma, siendo los LINE más
abundantes en bandas G y los elementos SINE más abundantes en bandas R (bandas G claras);
microsatélites y minisatélites también están dispersos, aunque éstos últimos tienden a concentrarse en
torno a los telómeros.
En la Figura 4.11 se ven dos ejemplos de la distribución de elementos
repetidos de tipo satélite en cromosomas humanos.
El genoma mitocondrial
La mitocondria es un orgánulo de probable origen endosimbióntico que se ha adaptado a su nicho
intracelular: para aumentar su tasa de replicación y asegurar la transmisión a las células hijas después de
cada división mitótica, el genoma de las mitocondrias de mamíferos se ha ido reduciendo de tamaño hasta
alcanzar las 16.569 pb en el caso del genoma mitocondrial humano. Las mitocondrias son las verdaderas
centrales térmicas de nuestro organismo ya que en ellas tiene lugar la fosforilación oxidativa (OXPHOS),
es decir, la respiración celular acoplada a la producción de energía en forma de ATP. El funcionamiento del
sistema OXPHOS tiene, además, importancia médica por la generación de especies reactivas de O2
(Reactive Oxygen Species, ROS) y por la regulación de la muerte celular programada o apoptosis. Las
proteínas incluidas en el OXPHOS se localizan dentro de la membrana mitocondrial interna, e incluyen:
(1) Componentes de la cadena transportadora de electrones (Cadena respiratoria mitocondrial, CRM); (2)
ATPasa de membrana; (3) Translocador de nucleótidos de Adenina (ANT).
El ADNmt humano es una molécula circular de 16.569 pares de bases. El número de moléculas de
ADNmt por célula varía entre unos pocos cientos en los espermatozoides a unas 200.000 copias en el
oocito, pero en la mayor parte de los tejidos el rango está comprendido entre unas 1.000 y 10.000
copias por célula, con 2 - 10 moléculas de ADN por mitocondria. Este genoma contiene información para
37 genes:

Genes que codifican las 2 subunidades 12S y 16S del ARNr (ARN ribosomal)
de la matriz
mitocondrial.

Los genes para los 22 ARNt (ARN transferente), requeridos para la síntesis de proteínas mitocondriales
en la misma matriz mitocondrial.

Genes que codifican 13 polipéptidos que forman parte de los complejos multienzimáticos del sistema
OXPHOS. En concreto, en el genoma mitocondrial se codifican 7 subunidades del Complejo I, 1
subunidad del Complejo III, 3 subunidades del Complejo IV, y 2 subunidades de la ATPasa (Complejo
V).
CAPÍTULO 4: GEOGRAFÍA DEL GENOMA HUMANO
55
Es importante no perder de vista que el resto de las subunidades polipeptídicas de estos complejos, así
como el Complejo II completo, están codificados en el genoma nuclear, de manera que no todas las
enfermedades mitocondriales están necesariamente causadas por alteraciones en el ADN mitocondrial.
La Figura 4.12 muestra los complejos proteicos de la membrana de la
mitocondria que están codificados por genes del propio genoma mitocondrial.
La característica estructural más sorprendente del ADNmt es que los genes se encuentran situados uno a
continuación del otro, sin apenas intrones ni regiones no codificantes entre los genes. Al contrario que el
genoma nuclear, en el que las regiones no codificantes son mayoritarias, el ADN mitocondrial sólo posee
un 3% de secuencias no codificantes. Veintiocho de los genes mitocondriales (2 ARNr, 14 ARNt y 12
polipéptidos) se encuentran en una de las cadenas (cadena H ó pesada), mientras que los 9 genes restantes
(1 polipéptido y 8 ARNt) están en la cadena complementaria (cadena L ó ligera). La única zona del ADNmt
que no codifica ningún gen es la región del bucle de desplazamiento (bucle-D), localizada alrededor del
origen de replicación de la cadena H. Esta región contiene también los promotores de la transcripción y los
elementos reguladores de la expresión génica. Otra de las peculiaridades de la organización genética del
ADNmt es que los genes de los ARNt se distribuyen entre los genes de los ARNr y los codificantes
de proteínas; esta disposición tiene consecuencias muy importantes para el procesamiento del ARN. Para
la replicación del ADNmt hacen falta dos orígenes diferentes, uno para cada cadena (OH y OL). Ambos
orígenes de replicación están muy separados, haciendo que el proceso sea unidireccional y asimétrico. La
síntesis del ADN se inicia en OH y es realizada por una polimerasa específica de la mitocondria, la DNApol ,
que alarga un ARN iniciador fruto del procesamiento de un transcrito primario que se sintetiza a partir del
promotor L. La replicación continúa de modo unidireccional hasta alcanzar OL, momento en el cual comienza
la síntesis de la segunda cadena del ADN, alargando también un pequeño iniciador de ARN.
La Figura 4.13 muestra la estructura del ADN mitocondrial.
En la transcripción del ADNmt intervienen una polimerasa de ARN, al menos un factor de transcripción
implicado en la iniciación (mtTFA), y uno de terminación (mTERF). Las dos cadenas del ADNmt se
transcriben completamente a partir de tres puntos de iniciación diferentes, dos para la cadena pesada
(H1 y H2) y uno para la cadena ligera (L), originando tres moléculas policistrónicas que se procesan
posteriormente por cortes endonucleolíticos precisos en los extremos 5´ y 3´ de las secuencias de los ARNt,
para dar lugar a los ARNr, ARNt y ARNm maduros. De esta forma los ARNt, situados entre los genes de los
ARNr y ARNm, actúan como señales de reconocimiento para los enzimas de procesamiento. En particular, la
cadena H se transcribe mediante dos unidades de transcripción solapadas en la región de los ARNr: la
primera de estas unidades comienza delante del gen para el ARNtPhe (lugar de iniciación H1), termina en el
extremo 3´ del gen para el ARNr 16S y es responsable de la síntesis de los ARNr 12S y 16S, del ARNtPhe y
del ARNtVal. El factor de terminación (mTERF) se une a una secuencia situada en el gen del ARNtLeu y
provoca la terminación de esta unidad. La segunda unidad de transcripción comienza cerca del extremo 5´
del gen del ARNr 12S (lugar de iniciación H2) y transcribe la casi totalidad de la cadena pesada; el
procesamiento de este ARN policistrónico origina los ARNm de 12 péptidos y los otros 12 ARNt codificados
en esta cadena. La transcripción de la cadena ligera comienza cerca del extremo 5´ del ARN 7S (en el
bucle-D) y da lugar al iniciador de la replicación de la cadena pesada, 8 ARNt y 1 péptido (ND6).
La síntesis de las proteínas mitocondriales tiene lugar en ribosomas específicos de la mitocondria,
cuyos componentes están codificados en el ADNmt (ARNr 12S y 16S) y en el genoma nuclear (84 proteínas
ribosomales). En este sistema de traducción se sintetizan las trece proteínas codificadas en el ADNmt
56
GENÉTICA HUMANA
utilizando un código genético que difiere ligeramente del código genético universal. Así, UGA
codifica el aminoácido triptófano (Trp) en vez de ser un codón de terminación, y los codones AUA y AUU se
utilizan también como codones de iniciación.
La biogénesis de la mitocondria depende de la expresión coordinada de los genomas mitocondrial y
nuclear, pero hasta ahora se conoce muy poco acerca de los mecanismos que regulan la interacción de
ambos sistemas genéticos. La expresión del ADNmt parece estar regulada por el factor de iniciación de la
transcripción mtTFA, codificado en el genoma nuclear. Este factor podría ser el responsable tanto de los
niveles de ARN como del número de copias de ADNmt, ya que la replicación depende de la síntesis de un
iniciador de ARN a partir del promotor de la cadena ligera. La regulación de la relación entre los ARNr y los
ARNm mitocondriales se realiza fundamentalmente mediante la selección del lugar de iniciación de la
transcripción de la cadena pesada, que a su vez está relacionada con el factor mtTERF (que causa
terminación de la transcripción después de la síntesis de los ARNr) y con el procesamiento de los ARN
primarios. Asimismo, la actividad transcripcional puede estar regulada por estímulos hormonales,
especialmente por hormonas tiroideas que actúan tanto de un modo indirecto (por activación de genes
nucleares) como directamente sobre el propio ADNmt.
CAPÍTULO 5: EL GENOMA HUMANO EN ACCIÓN
57
CAPÍTULO 5. EL GENOMA HUMANO EN ACCIÓN
La secuencia influye en el estado funcional de la cromatina. Modificaciones
epigenéticas y su importancia en la regulación del estado funcional de la
cromatina. Relación entre secuencia, estructura y función de la cromatina:
territorios cromosómicos.
La secuencia influye en el estado funcional de la cromatina
Como ya se ha dicho, el grado de empaquetamiento no es uniforme a lo largo de todo el genoma. De hecho,
en el núcleo en interfase siempre se distinguió una cromatina denominada eucromatina, poco condensada,
y otra llamada heterocromatina, con un mayor grado de condensación. Hoy sabemos que estas categorías
morfológicas tienen un correlato funcional, ya que la eucromatina es transcripcionalmente más activa
mientras que los genes incluidos en heterocromatina tienen un bajo nivel de expresión. La heterocromatina,
a su vez, puede ser de dos tipos: constitutiva, que nunca se transcribe y se localiza en los centrómeros y
en la constricción secundaria de algunos cromosomas; ó facultativa, que en el fondo es un tipo de
eucromatina que se heterocromatiniza en situaciones concretas, como es el caso del cromosoma X inactivo
en las mujeres. Además de estas dos grandes categorías de cromatina, es importante comprender que
dentro de las regiones eucromáticas la cromatina tampoco es totalmente homogénea, como queda
reflejado, por ejemplo, en su distinta repuesta a varias tinciones. Este comportamiento es precisamente la
base del patrón de bandas característico de cada cromosoma y que permite la creación del cariotipo
convencional. Como veremos en un capítulo posterior, la tinción con un colorante llamado Giemsa produce
unas bandas oscuras (bandas G) separadas por bandas claras (bandas R). La tinción con otra sustancia
llamada Quinacrina (que se une específicamente a regiones ricas en adeninas y timinas) produce un patrón
de bandas similar a las bandas G, mientras que la tinción con Cromomicina-A (que se une
preferentemente a regiones ricas en guaninas y citosinas) genera un patrón similar a las bandas R. Por
tanto, las peculiaridades morfológicas de la cromatina son debidas, al menos en parte, a diferencias en la
secuencia de nucleótidos del genoma; el modelo del andamio (scaffold) que vimos en el Capítulo 2 permite
explicar esta relación, ya que las bandas G representan regiones con un mayor grado de empaquetamiento
del ADN, lo que implica una mayor densidad de las regiones de unión al andamio (llamadas SAR). Como las
SAR son relativamente ricas en adenina y timina, esto explica que estas regiones genómicas se tiñan más
intensamente por Quinacrina y Giemsa, mientras las bandas R, más ricas en guanina y citosina, tienen un
menor grado de empaquetamiento, menor densidad de SAR y se tiñen débilmente por estos colorantes. Por
tanto, las distintas bandas del cariotipo reflejan no sólo diferencias en la condensación de la cromatina, sino
también diferencias en su composición: ya hemos visto que el genoma humano tiene un contenido medio
en G+C del 41%, pero que esto no se distribuye de manera uniforme por todo el genoma.
A su vez, las diferencias en condensación y en composición de las distintas regiones de cromatina se
correlacionan con otra variable importante: la riqueza en genes y su actividad transcripcional. Por
ejemplo, se estima que un 80% de los genes se localizan en bandas R (las más ricas en nucleótidos G+C),
que son las menos condensadas. También se ha observado que, en general, las bandas R son de replicación
temprana, mientras que las bandas G son de replicación más tardía. Como se recordará del Capítulo 2, la
replicación del ADN en eucariotas comienza en muchos orígenes de replicación durante la fase S del ciclo
celular, pero no todos los orígenes de replicación comienzan a funcionar a la vez: hay unos orígenes que
siempre comienzan al principio de la fase S (replicación temprana) y otros que van comenzando a
funcionar más tarde (replicación tardía). Asimismo, se sabe que los genes constitutivos (housekeeping en
58
GENÉTICA HUMANA
inglés), que son los que se expresan en todos los tejidos, se replican temprano; por el contrario, los genes
que están en regiones heterocromáticas (el cromosoma X inactivo, por ejemplo) son de replicación más
tardía. Parece —por tanto— que regiones con alta densidad de genes, ricas en C+G y descondensadas se
replican antes que regiones silenciadas ó con baja densidad de genes.
Otro aspecto que diferencia los distintos tipos de bandas es la acetilación de las histonas. Como se verá
a continuación, se ha podido comprobar que la acetilación de las histonas que forman los nucleosomas lleva
a la formación de una cromatina más abierta, que permite mejor el acceso de factores de transcripción y la
expresión de los genes contenidos en esas regiones. Esto se debe a que las colas amino-terminales de
las histonas interaccionan con más fuerza entre sí y con el ADN cuando los grupos épsilon-amino de las
lisinas están en su forma des-acetilada; la acetilación relaja esas interacciones y descondensa parcialmente
la fibra de 30 nm y la unión del ADN con los nucleososmas. Curiosamente, se ha comprobado que las
histonas de las bandas G están menos acetiladas que las histonas de las bandas R. Esto ayudaría también a
explicar la menor condensación de la cromatina en las bandas R, y nos proporciona un mecanismo para
entender por qué las bandas R se replican antes y son más activas transcripcionalmente: por un
lado, no necesitan descondensarse para que se lleve a cabo la replicación, y por otro constituyen unos
dominios en los que el ADN es más accesible a los factores de transcripción.
Figura 5.1 La acetilación de colas amino-terminales de las histonas influye en
la condensación de la cromatina.
En resumen, es importante darse cuenta de que los mecanismos básicos de regulación de la expresión
génica estudiados en el Capítulo 1 están sometidos a un nivel superior de regulación, dependiente de la
situación de un gen dentro del genoma y del estado funcional de la cromatina en que se encuentra, que a su
vez está influido por el tipo de secuencias que la componen. Generalizando, podemos resumir las principales
características de los dos estados de cromatina más frecuentes, representados por los dos tipos principales
de bandas citogenéticas (banda G, oscuras, y bandas R, claras):
Bandas G
Bandas R
Densidad en genes
Baja
Alta
Porcentaje de G+C
Bajo
Alto
Replicación
Tardía
Temprana
Ricas en A+T
Ricas en G+C
Acetilación Histonas
Baja
Alta
Repeticiones predominantes
LINE
SINE
Composición
Modificaciones epigenéticas y su importancia en la regulación del estado
funcional de la cromatina
Es muy importante comprender que los aspectos estructurales y funcionales se integran en un modelo
"dinámico", según el cual una región de cromatina estará en un estado más o menos favorable a la
expresión génica dependiendo del tipo de secuencias que la forman y también de las modificaciones
epigenéticas a ese nivel. Por modificaciones epigenéticas se entienden todos aquellos cambios que sufre
la cromatina pero que no afectan a la secuencia de nucleótidos: por eso no son modificaciones "genéticas",
sino que están "por encima" (que es lo que significa epi en griego). En los últimos años se ha comprobado
CAPÍTULO 5: EL GENOMA HUMANO EN ACCIÓN
59
experimentalmente la gran importancia que tienen los mecanismos que regulan la actividad de la cromatina
mediante cambios epigenéticos. Para entender esto, es importante recordar que la actividad transcripcional
basal en eucariotas es esencialmente restrictiva, en el sentido de que los promotores están en estado
inactivo hasta que se ponen en marcha por la acción de los elementos llamados ―activadores‖ y el
ensamblaje del complejo basal de transcripción. Para que estos factores proteicos se unan a sus dianas en
el ADN es necesario que la cromatina de esa región esté relativamente descondensada, para exponer más
fácilmente la doble hélice y permitir el acceso de factores proteicos. De hecho, los genes que son
transcripcionalmente activos se asocian habitualmente con sitios hipersensibles a DNAsa I, regiones
cortas (unos pocos cientos de pares de bases) formadas por ADN que no está asociado a nucleosomas,
precisamente porque se encuentra unido a factores de transcripción.
La Figura 5.2 ilustra esquemáticamente la distinta accesibilidad a una región
de cromatina dependiendo del grado de condensación.
Los nucleosomas son, por tanto, un elemento fundamental para mantener este estado basal restrictivo, al
impedir el acceso de la maquinaria transcripcional a los promotores. La represión transcripcional mediada
por nucleosomas se debe tanto a las interacciones directas del octámero de histonas con el ADN, como a las
interacciones que se originan entre nucleosomas vecinos para dar lugar a la fibra de cromatina. Como
hemos visto más arriba, las colas N-terminales de las histonas de los nucleosomas quedan libres hacia
fuera, y son las regiones más susceptibles de ser modificadas químicamente para variar su carga y alterar
las interacciones, tanto entre histonas y ADN como entre nucleosomas vecinos. Por tanto, si conseguimos
relajar alguna de estas interacciones conseguiremos favorecer la transcripción de los genes que están
incluidos en esas regiones. Esta relajación se puede conseguir gracias a que las colas N-terminales de las
histonas tienen una serie de aminoácidos (lisinas y serinas, principalmente) que pueden sufrir
modificaciones covalentes del tipo acetilación, metilación ó fosforilación, y que van a ser cruciales
en la regulación de estos fenómenos. A su vez, estos cambios se coordinan con otras modificaciones
epigenéticas que sufre la propia cadena de ADN en forma de metilación de algunos nucleótidos concretos, y
en su conjunto ambos procesos constituyen un importante mecanismo de regulación de la actividad
transcripcional. A continuación veremos por separado las modificaciones epigenéticas que sufre la
cromatina, por una parte, y el ADN por otra.
A. Modificación de la cromatina. Para superar la represión basal debida a la presencia de nucleosomas y
facilitar la expresión de un gen, los activadores de la transcripción pueden potenciar la actividad
transcripcional alterando, en primer lugar, la propia estructura de la cromatina: aunque el activador no se
una directamente al promotor de un gen, puede reclutar distintas actividades modificadoras de la
cromatina cuya acción sea conferir a esa región un estado que facilite la transcripción. Estas actividades
pueden ser de varios tipos:

complejos proteicos implicados en el remodelamiento nucleosomal: son capaces de mover los
nucleosomas de su posición para dejar expuesta una región promotora y permitir la expresión génica.
Este tipo de actividad está mediada por complejos multiproteicos con actividad ATPasa, de los cuales el
primero en ser aislado fue el complejo SWI/SNF (primero se identificó en levaduras, después en
humanos). Este complejo desestabiliza el nucleosoma al romper los contactos del ADN con el octámero,
que queda libre para moverse y asociarse con una región vecina de la molécula de ADN. Todos los
remodeladotes de nucleosomas pertenecen a la familia SNF2 de ATPasas, y pueden dividirse en 7
subgrupos dependiendo de los dominios proteicos que contienen.
60
GENÉTICA HUMANA
En la Figura 5.3 se ilustra el movimiento de nucleosomas por la acción de
remodeladotes de la cromatina.

complejos implicados en la acetilación de histonas: el factor Gcn5 de levadura fue el primer activador
transcripcional con actividad acetilasa de histonas descubierto, en 1996. Posteriormente se vio que
otros co-activadores de la transcripción de mamíferos también poseían actividad acetil-transferasa,
factores tales como p300, CBP (CREB-BP) y P/CAF, de ahí que hoy en conozcan en conjunto con el
nombre de HAT (Histone AcetylTransferase). Éstos actúan como factores de transcripción integradores
de diversas vías de transducción de señales implicadas en el control del ciclo celular y de los procesos
de diferenciación, reparación y apoptosis. Otros activadores transcripcionales con actividad HAT son el
factor de transcripción TAFII250 (que forma parte del complejo TFIID), SRC-1 y ACTR (coactivadores
de receptores nucleares). Al igual que la acetilación de las histonas conduce a la activación
transcripcional, la des-acetilación de las histonas crea una estructura cromatínica más condensada
que favorece el silenciamiento de la transcripción de los genes incluidos en la esa región genómica. En
este sentido, se ha comprobado que los factores HDAC1 y HDAC2 (Histone De-Acetylase), cuya
función es des-acetilar las histonas, están presentes en el complejo Sin3-NcoR, un co-represor
transcripcional que regula la expresión de genes importantes en el ciclo celular y en el desarrollo
embrionario. En conjunto, acetilasas y des-acetilasas actúan sobre los mismos aminoácidos de las colas
amino-terminales de las histonas H3 y H4, especialmente las lisinas 9, 14, 18 y 23 de la histona H3
y las lisinas 5, 8, 12 y 16 de la histona H4. En la figura 5.1 ya se ha visto el posible mecanismo por
el que la des-acetilación de las histonas favorece la compactación de nucleosomas vecinos e impide la
transcripción en esa región. De hecho, se ha comprobado que la des-acetilación de la lisina 16 en la
histona H4 provoca la condensación de la fibra de 10 nm, mientras que la acetilación de este residuo
impide la formación de la fibra de 30 nm y permite la interacción con co-activadores de la transcripción.

otras modificaciones muy importantes son la fosforilación de la histona H3 en la serina 10 y la
metilación de las lisinas 4, 9, 27, 36 y 79 en la histona H3 y de la lisina 20 de la histona H4,
metilación catalizada por unos complejos proteicos que tienen actividad metil-transferasa. Se ha
comprobado que estas modificaciones actúan en coordinación con la acetilación, estableciendo lo que
ahora se conoce como el "Código de Histonas". Según este código, una región se comportará como
eucromatina ó como heterocromatina dependiendo de las modificaciones epigenéticas de las histonas
que conforman los nucleosomas de la región; las regiones limítrofes, en las que se da una transición de
un tipo de cromatina al otro, muestran características propias de ambos tipos de cromatina, y son
capaces de unir complejos proteicos llamados aisladores (en inglés "insulator"), que forman una
especie de barrera física e impiden que un tipo de cromatina se extienda más allá del límite de la región
e invada la región vecina. De modo general, el código de histonas establece que una región de
eucromatina se caracteriza por tener la lisina 4 de la histona H3 metilada (con uno, dos o tres grupos
metilo), y las lisinas 9 y 14 de la misma histona acetiladas. Se ha comprobado que esta configuración
tiene la propiedad de unirse a un dominio proteico llamado "bromodominio", que está presente en
muchos
activadores
de
la
transcripción.
Una
región
con
estas
características
puede
heterocromatinizarse si sufre una cascada de alteraciones: la pérdida de la metilación de la lisina 4, la
desacetilación progresiva de las lisinas 9 y 14, y finalmente la metilación de la lisina 9 constituyen una
marca de heterocromatina, a la que se unen proteínas que contienen un dominio de silenciamiento
llamado "cromodominio" que recluta factores de silenciamiento como la proteína HP1 (proteína de
heterocromatina-1). Estas interacciones están influidas también por la fosforilación de la serina 10 de la
histona H3; por ejemplo, dicha fosforilación –generada por la quinasa Aurora B— inhibe la unión de HP1
con la lisina 9 metilada durante la mitosis.
CAPÍTULO 5: EL GENOMA HUMANO EN ACCIÓN
61
La Figura 5.4 ilustra el concepto del “Código de histonas” y su utilidad para
definir distintas regiones de cromatina.
Chromo
Me
Ac
Me
14
T-K-Q-T-A-R-K-S-T-G-G-K-A
4
9
P
Ac
Bromo
B. La metilación del ADN juega un papel fundamental en el mantenimiento del silenciamiento
transcripcional. El ADN de vertebrados se metila en el carbono 5 de las citosinas que están en el
dinucleótido CpG (la "p" indica el grupo fosfato que une una citosina con una guanina, en dirección 5'  3').
Curiosamente, la abundancia de este dinucleótido en el genoma de vertebrados es sólo un 25% de lo
esperado, es decir, el porcentaje normalizado de este dinucleótido es de 0,25. En efecto, si el
contenido en C+G del genoma es del 41%, la probabilidad esperada de encontrar un dinucleótido CpG es
(0,205 x 0,205) = 0,042 (o sea, 4,2%); en cambio, la frecuencia observada de este dinucleótido está en
torno al 1% en el genoma humano, de ahí que el porcentaje normalizado sea 1/4 = 0,25. Además, los
dinucleótidos CpG no están distribuidos homogéneamente a lo largo del genoma, sino que son más
abundantes en los genes, tanto en los exones como, sobre todo, alrededor del inicio de la transcripción.
Pues bien, los dinucleótidos CpG que tienen metilada la citosina son los que están distribuidos a lo
largo de la secuencia de genes. Por el contrario, los dinucleótidos CpG que no están metilados
que tienden a concentrarse en regiones que se denominan islas CpG. Aunque estas islas se han
definido tradicionalmente como las regiones de un tamaño igual o superior a 500 pb, con un contenido total
de G+C superior a 55% y con un cociente de dinucleótidos CpG observados frente a esperados superior a
0,6 (criterios de Takai-Jones), hoy en día se pueden definir por su porcentaje normalizado de CpG. De
hecho, el análisis de todos los promotores del genoma humano identifica dos tipos de genes: los que
tienen un promotor con un porcentaje normalizado de CpG en torno al 0,61 y los que tienen un promotor
con un porcentaje normalizado de CpG en torno al 0,23. Los primeros constituyen un 70% de todos los
promotores, y corresponden a los genes constitutivos ó ―domésticos‖ ("housekeeping" en inglés). Por el
contrario, los promotores con bajo porcentaje normalizado de CpG constituyen un 30% del total de los
promotores, y corresponden a los genes que se expresan en tejidos específicos. Los promotores que
contienen una isla CpG están habitualmente hipometilados en la línea germinal, lo cual les protege frente a
las transiciones CT que sufren las citosinas metiladas.
En la Figura 5.5 se representa la distribución de dinucleótidos CpG a lo largo
de un gen, mostrando el concepto de “isla CpG”.
62
GENÉTICA HUMANA
La metilación del ADN está catalizada por unas metil-transferasas específicas de las citosinas que forman
parte de dinucleótidos CpG, y se conocen básicamente dos tipos de estas metil-transferasas de ADN. Las
DNMT3A y DNMT3B son responsables de la metilación de novo, es decir, la metilación de dinucleótidos
CpG que no estaban previamente metilados. En cambio, la DNMT1 (ADN-metil-transferasa-1) es
responsable de mantener la metilación durante la replicación. En efecto, dado que en la doble cadena de
ADN un dinucleótido CpG tiene realmente dos citosinas metilables (ya que existe un CpG en cada una de las
cadenas de la doble hélice), un sitio totalmente metilado tendrá realmente dos citosinas metiladas. Tras la
replicación del ADN, ambas dobles hélices conservarán una cadena con el CpG metilado (la proveniente de
la molécula original), mientras que la cadena de nueva síntesis estará sin metilar. Esto genera dinucleótidos
CpG hemi-metilados, es decir, metilados en una de las citosinas pero no en la otra; la DNMT1 tiene la
función de re-metilar precisamente estos dinucleótidos para restablecer el estado inicial de metilación
completa que tenía la molécula original.
La Figura 5.6 muestra el proceso de re-metilación de dinucleótidos CpG que
han quedado hemi-metilados tras la replicación.
Numerosos estudios han mostrado el significado biológico de la metilación del ADN: 1) es un importante
mecanismo epigenético de silenciamiento génico a nivel transcripcional, y permite mantener el
silenciamiento de ciertos genes durante los procesos de diferenciación celular; 2) la metilación es un
mecanismo de defensa frente a elementos móviles del genoma, cuyos promotores están
habitualmente silenciados por metilación; y 3) la metilación es un mecanismo estabilizador de la
cromatina, especialmente de la heterocromatina pericentromérica, ya que la des-metilación de este tipo de
cromatina conduce a la aparición de reordenamientos cromosómicos severos.
Los mecanismos moleculares por los que la metilación conduce al silenciamiento transcripcional pueden ser
múltiples:

impidiendo la unión de factores de transcripción al promotor. Por ejemplo, algunos factores de
transcripción generales como Sp1, CREB, E2F ó NF-kB se unen a dominios que contienen CpG, y
esta unión disminuye cuando estos dominios están metilados. Sin embargo, éste mecanismo no se
puede aplicar de modo general a todos los genes.

mediante la unión específica de represores transcripcionales al ADN metilado. Existen varias proteínas
de unión a los dinucleótidos CpG metilados, denominadas genéricamente MeCP ("Methyl-Cytosine
binding Protein") ó MDB ("Methyl Binding Domain"), que forman parte de complejos con actividad
represora de la transcripción. Por ejemplo, MeCP-2 es una proteína que contiene un dominio de unión
a dinucleótidos CpG metilados, así como otro dominio por el que se une a un represor transcripcional
llamado Sin3. Curiosamente, Sin3 reprime la transcripción a través de su unión con HDAC2 (que,
como ya hemos visto, des-acetila las lisinas de la histona H3). De esta manera, la represión
transcripcional debida a la metilación de los dinucleótidos CpG se produce gracias a la asociación
entre metilación del ADN y acetilación de la cromatina, ya que el dominio de represión
transcripcional de MeCP-2 es capaz de reclutar el complejo Sin3-NCoR-HDAC2 y así iniciar un foco de
cromatina hipoacetilada en una región específica del genoma. Esto explica que las regiones en las que
el ADN está metilado sean capaces de silenciar genes cercanos (aunque éstos no tengan sus
dinucleótidos CpG metilados), al englobarlos en una región genómica silenciada por des-acetilación.
CAPÍTULO 5: EL GENOMA HUMANO EN ACCIÓN
63
El video incluido en la Figura 5.7 ilustra la interacción entre metilación del
ADN y modificación de las histonas.
Una propiedad muy importante del silenciamiento por metilación es que es reversible: se ha comprobado
que los promotores que han sido silenciados por metilación pueden reactivarse si se des-metila esa región.
Un mecanismo posible para explicar esta reactivación es la pérdida de la metilación durante la
replicación: esto sucedería si ciertos factores de transcripción ó activadores nucleares consiguieran unirse
a sus promotores inmediatamente después de la replicación y antes de que actúe la DNMT1 de
mantenimiento en los sitios hemi-metilados. Una vez que se estabiliza el complejo basal de transcripción
sobre esa región, éste atraería algunos componentes con actividad HAT, que a su vez actuarían
manteniendo la cromatina abierta y permitiendo la transcripción. Esto, además, impediría la acción de la
DNMT1 y terminaría por eliminar la metilación en esa región tras varios ciclos de replicación. Este
mecanismo se conoce como des-metilación pasiva. Otro mecanismo alternativo para explicar la reexpresión de genes silenciados por metilación, sobre todo en células diferenciadas que ya no se replican, es
la desmetilación activa, aunque todavía no se ha aislado de modo concluyente ninguna des-metilasa de
ADN.
En resumen, la metilación del ADN constituye un importantísimo mecanismo epigenético de regulación de la
expresión génica, debido a su interacción con los mecanismos que modifican la estructura de la cromatina.
El mantenimiento de los patrones de metilación explica también que las modificaciones epigenéticas sean
heredadas establemente tras la replicación del ADN. Además, como ya se ha mencionado, la metilación
tiene importantes implicaciones biológicas, y por tanto la alteración de los procesos normales de
metilación de la cromatina puede perturbar procesos fisiológicos importantes. En primer lugar, por ser un
mecanismo fundamental en el silenciamiento de retrovirus endógenos, transposones y ADN satélite, las
alteraciones en la metilación de estos elementos puede provocar numerosas anomalías genéticas.
Además, la metilación es la base molecular de los fenómenos de impronta genómica (imprinting) que se
estudiarán más adelante, y es un mecanismo fundamental en la regulación de la expresión génica durante
el desarrollo embrionario. De hecho, el embrión sufre una onda de des-metilación genómica global en la
fase de mórula de 8 células, seguida por la re-metilación gradual que vuelve a fijar los patrones de
metilación en la fase de blastocisto. También la inactivación del cromosoma X en mujeres es un
proceso básicamente controlado por procesos de metilación, acetilación y silenciamiento. Por tanto, cada
vez está más claro que la des-regulación de las modificaciones epigenéticas de la cromatina está en la base
de algunas enfermedades humanas. El caso más claro es el de una enfermedad neurológica hereditaria
llamada Síndrome de Rett, en el que se han identificado mutaciones en el gen que codifica la proteína de
unión a metil-citosinas MECP2. Probablemente, esto origine un exceso de ―ruido transcripcional‖ por falta de
silenciamiento global de muchos genes, con efectos más marcados en el cerebro que en otros órganos. Por
otra parte, el papel de la metilación en cáncer también está cobrando cada vez más importancia, ya que
se ha visto que muchos tipos de tumores tienen alteraciones importantes en los procesos de metilación de
la cromatina:

la desaminación de citosinas metiladas (debida habitualmente a la acción de una citidíndesaminasa, ó bien por desaminación hidrolítica espontánea) provoca un cambio de Citosina por
Timina, haciendo que los dinucleótidos CpG metilados sean puntos calientes (hotspots) para la
generación de mutaciones de este tipo. De hecho, se ha estimado que el 30% de las mutaciones
encontradas en tumores en el gen TP53 (que codifica la proteína p53, un supresor tumoral importante)
son transiciones CT que tienen lugar dentro de dinucleótidos CpG.
64

GENÉTICA HUMANA
se ha comprobado que durante el proceso de iniciación tumoral hay una hipometilación global del
genoma de la célula pre-maligna, lo que provoca un aumento en la inestabilidad genómica y la
aparición de anomalías cromosómicas. Por ejemplo, los ratones en los que el gen DNMT1 ha sido
inactivado muestran una elevada tasa de deleciones o duplicaciones de regiones cromosómicas.
Además, algunos oncogenes concretos se sobreexpresan en algunos tumores por des-metilación de sus
promotores (por ejemplo el oncogén BCL2). Del mismo modo, se ha identificado una enfermedad
(Síndrome ICF, siglas de Inmunodeficiencia, inestabilidad Centromérica y defectos Faciales) en la que
los pacientes tienen mutaciones en el gen DNMT3B, que codifica una metil-transferasa que metila
específicamente los satélites centroméricos 2 y 3; la desmetilación de esas regiones de heterocromatina
provoca fusiones entre cromosomas. En conjunto, estos datos sugieren que la metilación es un
mecanismo muy importante para mantener la estabilidad del genoma.

al mismo tiempo, la hipermetilación puntual de algunos genes supresores tumorales, con el
consiguiente silenciamiento y pérdida de función, es un mecanismo muy frecuente de generación de
distintos tipos de cáncer. Por ejemplo, el gen RB1 está frecuentemente metilado en un tipo de tumores
llamados retinoblastomas esporádicos. También es frecuente la hipermetilación (y silenciamiento) del
gen supresor tumoral p16 en varios tipos de tumores; la hipermetilación del gen VHL (Von HippelLindau) en 20% de los carcinomas de células renales esporádicos; la inactivación, por hipermetilación,
del gen de reparación de desemparejamientos hMLH1 en tumores de colon esporádicos que muestran
inestabilidad de microsatélites. En conjunto, se estima que en tejido tumoral hasta un 10% de las islas
CpG están metiladas, en contraste con células normales en las que este porcentaje es mucho más bajo.

por su parte, algunos complejos con actividad modificadora de la cromatina se han asociado
también con el desarrollo de cáncer. Por ejemplo, el gen AIB1, que tiene actividad acetilasa de
histonas, está amplificado en cáncer de mama y por tanto se expresa a niveles más altos de lo normal.
Por otro lado, el co-activador transcripcional CBP, que también funciona como una acetilasa de
histonas, está fusionado con el gen MOZ ó con el gen MLL en pacientes con leucemia mieloide aguda;
esta fusión hace que la actividad acetilasa esté aumentada en determinadas células de la médula ósea
y esto desencadena la leucemia. Además, otro co-activador transcripcional con actividad acetilasa de
histonas (la proteína p300) está mutado en cáncer colorrectal y delecionado en el 80% de los
glioblastomas, un tipo de tumor cerebral. Lo mismo puede decirse de los complejos con actividad desacetilasa de histonas (HDAC): ya hemos visto que la supresión de Myc y la unión de Rb con el factor
de transcripción E2F dependen en gran medida de su unión con complejos que tienen actividad desacetilasa. Además, se ha demostrado que algunas oncoproteinas virales como HPV E7 ó el antígeno
T de SV40 inactivan el gen RB1 al impedir su unión con complejos que tienen actividad HDAC.
Finalmente, las translocaciones asociadas con la leucemia promielocítica producen fusiones entre
factores de transcripción que interaccionan con diversas acetilasas y des-acetilasas de histonas, con
complejos remodeladores de la cromatina y con proteínas que tienen actividad metil-transferasa de
histonas.
CAPÍTULO 5: EL GENOMA HUMANO EN ACCIÓN
65
La Figura 5.8 muestra la regulación de la transcripción de un gen que
responde al ácido retinoico, mostrando la importancia de los complejos
modificadores de la cromatina y su alteración en un tipo de leucemia.
Translocación con
Proteína de fusión
PML/RARa
Gen que responde
al Ácido Retinoico
Sin3
Sin3
NCOR HDAC
RAR
• Ausencia de ligando
• Desacetilación
(Represión)
Ac
NCOR HDAC
RXR
Ac
RXR
RXR
HAT
RAR
NCOR HDAC
Sin3
PML/RAR
Ac Ac
• Unión del ligando
(ácido retinoico)
• Forma anómala
del receptor
• Acetilación
(Transcripción)
• Impide unión del
ligando
Considerando todos los ejemplos citados en los párrafos anteriores, podemos concluir que los procesos que
regulan la metilación de la cromatina están implicados en la iniciación y progresión tumoral; esto, además,
abre nuevas posibilidades terapéuticas en muchos tipos de cáncer, ya que el estado de metilación es
potencialmente modificable mediante fármacos.
Relación entre secuencia, estructura y función de la cromatina: territorios
cromosómicos
Al ocuparnos de los mecanismos que regulan la función del genoma a nivel global, es importante tener en
cuenta el nivel superior de organización de un genoma dentro del núcleo. En los últimos años se ha puesto
en evidencia que distintas regiones de la fibra de cromatina tienden a ocupar posiciones concretas
en el núcleo, dependiendo de la secuencia subyacente, del estado transcripcional de los genes de esa
región y de sus modificaciones epigenéticas, del tiempo de replicación del ADN implicado, etc. Por tanto,
cada vez está más claro que si queremos tener una imagen completa de cómo se regula la función del
genoma, no podemos ignorar aspectos estructurales tales como la composición en nucleótidos o la posición
dentro del núcleo.
Uno de los aspectos más intrigantes de la biología genómica de los últimos años es la organización espacial
de la cromatina dentro del núcleo de la célula eucariota, dando lugar a lo que se han denominado
"territorios cromosómicos". Este concepto ha venido a completar la imagen del núcleo eucariota como
una estructura compartimentalizada, en la que distintas regiones contienen maquinarias específicas que
llevan a cabo funciones concretas. Esta noción debe integrarse con la presencia de dominios cromatínicos
definidos y más o menos estables a lo largo de la vida de una célula. Diversos estudios han mostrado de
66
GENÉTICA HUMANA
forma convincente que la cromatina correspondiente a cada uno de los cromosomas tiende a ocupar unas
posiciones concretas en el núcleo en interfase, y que esas posiciones tienden a mantenerse durante el ciclo
celular. Por ejemplo, la posición de un cromosoma concreto dentro del núcleo está relacionada con el
tamaño del cromosoma y con su riqueza en genes, que ―como hemos visto― se correlaciona también con
la secuencia de nucleótidos subyacente. En general, se considera que los cromosomas pequeños tienden a
localizarse hacia el interior del núcleo; igualmente, cromosomas ricos en genes tienden a ocupar posiciones
centrales. También existen datos que muestran que las regiones pobres en genes y en secuencias Alu se
asocian con la periferia del núcleo, dejando la cromatina rica en genes en el interior. De todas formas,
todavía se desconoce cómo se establecen estos territorios y cómo se mantienen tras la mitosis.
En la Figura 5.9 se ilustra el concepto de “territorio cromosómico”.
La replicación del ADN y la transcripción génica son dos procesos que tienen lugar dentro del núcleo y que
exigen una remodelación importante de la fibra de cromatina para permitir el acceso de las maquinarias
proteicas que los llevan a cabo. Además, se ha visto que ambos procesos no tienen lugar al azar, en
cualquier lugar del núcleo, sino en compartimentos especializados a los que acuden las fibras de cromatina
que están en la vecindad. Se habla así de "fábricas de replicación" ó de "fabricas de transcripción",
regiones nucleares ocupadas por regiones genómicas que se replican o transcriben simultáneamente aunque
pertenezcan a territorios cromosómicos distintos. Lógicamente, las asas de cromatina que ocupan una
fábrica determinada tendrán una configuración similar, en cuanto al grado de condensación de la cromatina,
la secuencia de nucleótidos, la riqueza en genes, etc; esto explica que el genoma se organice como un
mosaico de regiones que comparten características similares, ya que esas regiones podrían interaccionar
dentro del núcleo al situarse en una misma fábrica de replicación o de transcripción. Por ejemplo, se ha
visto que en el genoma humano existen unas regiones llamadas RIDGES (Regions of IncreaseD Gene
Expression, en inglés) en las que son más abundantes los genes que se transcriben activamente, y son
regiones ricas en G+C, pobres en repeticiones tipo LINE y con densidad génica alta. Junto a éstas, se
observan también regiones con poca densidad en genes, bajo nivel transcripcional y relativamente pobres
en G+C, que se llaman por tanto anti-RIDGES. Pues bien, los genes presentes en RIDGES tienden a
localizarse, dentro del núcleo, en torno a las fábricas de transcripción. Lo mismo sucede con los genes de
replicación temprana, que se asocian significativamente con las fábricas de replicación nucleares. Por tanto,
los modelos actuales postulan que los genes que son replicados o transcritos residen en regiones
cromatínicas relativamente descondensadas, las cuales salen de sus propios territorios cromosómicos
hacia fábricas de replicación o transcripción vecinas. En esas fábricas, por tanto, pueden interaccionar
regiones alejadas de un mismo cromosoma, o incluso asas de cromatina de territorios cromosómicos
distintos; esto permite explicar, en el caso de la transcripción, la acción de potenciadores de la expresión
que actúan a larga distancia ó incluso en trans.
Como es lógico, en todas estas interacciones son importantes las modificaciones epigenéticas de la
cromatina y del ADN que hemos estudiado en este Capítulo, que en el fondo constituyen la base molecular
que permite los fenómemos de condensación y descondensación necesarios para la replicación, transcripción
y desplazamiento físico de las asas de cromatina. Conjugando todos estos elementos, obtenemos una visión
dinámica de la cromatina nuclear en la que que la estructura del núcleo se integra con la función y
secuencia del genoma. Esta visión es mucho más rica que los modelos anteriores, que no tenían en cuenta
todos estos factores, y además permite explicar mucho mejor la regulación fina de la expresión génica
durante el desarrollo embrionario ó la diferenciación celular. La otra cara de la moneda es que se trata de
procesos tremendamente complicados y, por ello, potencialmente frágiles, de modo que pequeñas
perturbaciones en estos mecanismos pueden dar lugar a alteraciones genéticas y enfermedades humanas.
En este sentido, el cáncer es un ejemplo típico de proceso complejo de des-regulación de la
CAPÍTULO 5: EL GENOMA HUMANO EN ACCIÓN
67
diferenciación celular, en el que se observan importantes alteraciones epigenéticas y una fuerte
desorganización de la estructura nuclear.
68
GENÉTICA HUMANA
CAPÍTULO 6: ORIGEN DE LA VARIACIÓN GENÉTICA EN HUMANOS
69
CAPÍTULO 6: ORIGEN DE LA VARIACIÓN GENÉTICA EN HUMANOS
Variación en el ADN: polimorfismos y mutaciones. Mecanismos de reparación
del ADN en humanos. Enfermedades causadas por alteraciones en los
mecanismos de reparación.
Variación en el ADN: polimorfismos y mutaciones
La variación observable en los individuos se debe en gran medida a la variación genética, sobre la que se
añade la variación producida por la influencia del ambiente. La variación genética se debe a la presencia de
cambios genéticos heredables (de una célula a sus células hijas), que además son transmitidos a la
siguiente generación si afectan a la línea germinal (pero no son transmitidos si solamente afectan a células
somáticas). Como es sabido, un gen —localizado en un locus— puede presentarse en formas diferentes
debidas a variaciones en la secuencia. Cada forma alternativa se denomina alelo, y el porcentaje de
individuos de la población general que presenta cada alelo se denomina frecuencia alélica. Cuando un locus
se presenta, al menos, en dos formas alélicas y la frecuencia alélica del alelo más raro es del 1% o mayor,
ese locus se llama locus polimórfico, y esa variación se denomina polimorfismo. La variación interindividual garantiza la adaptación de una especie a condiciones ambientales cambiantes, a expensas de
producir algunos individuos con mutaciones más graves, que desencadenan una enfermedad.
En humanos, la variación entre individuos se genera principalmente durante el proceso de reproducción
sexual (por recombinación meiótica). Además, durante la vida de un individuo se van introduciendo muchas
nuevas mutaciones en el genoma de sus células, aunque sólo un pequeño porcentaje de estos cambios
afectan a las células germinales y quedan fijados en el genoma de la especie. La tasa de nuevas
mutaciones es resultado del equilibrio entre mutación y reparación de las mutaciones. En efecto, en cada
división celular se incorporan 6x109 nucleótidos, y se estima que se producen unas 1017 divisiones celulares
durante la vida media de un individuo: por tanto, un sistema sin errores debería tener una exactitud de
6x1026, lo que es virtualmente imposible. De hecho, se sabe que la ADN polimerasa produce un error cada
104 nucleótidos incorporados, aunque está dotada de un sistema de ―edición‖ que mejora esta tasa
hasta 107. Además, los sistemas de detección y reparación de errores consiguen que, al final, la replicación
del ADN celular sólo origine un error cada 1010 nucleótidos. De hecho, se estima que en una célula
somática aparecen unas 10-7 mutaciones por gen por división, es decir, 1 mutación por cada 300 divisiones
celulares (asumiendo un total de 30.000 genes). Esta es una tasa extremadamente baja (insuficiente para
explicar todas las mutaciones que se producen en cáncer, por ejemplo), lo que implica la existencia de
sistemas celulares de reparación del ADN que se ocupan de reparar la inmensa mayoría de las mutaciones
introducidas en el genoma, contribuyendo a mantener una fidelidad alta. Además, muchas de estas
mutaciones serán silenciosas porque no afectan a ADN codificante; otras, las más dañinas, sufrirán una
fuerte presión selectiva y su frecuencia alélica será muy baja. Como se ve, la presencia de polimorfismos y
mutaciones en las poblaciones humanas es resultado del juego entre mutación-reparación-selección.
Mecanismos de reparación del ADN en humanos. Enfermedades causadas por
alteraciones en los mecanismos de reparación
A. Reparación de desemparejamientos entre nucleótidos normales.
70
GENÉTICA HUMANA
Los mecanismos de reparación mencionados actúan reparando tipos específicos de daño al ADN. Los
desemparejamientos entre bases normales pueden originarse por la tautomería de las bases (la forma
imina de Citosina empareja con Adenina, o la forma enólica de Timina empareja con Guanina), por
desaminación de citosinas metiladas (las citosinas metiladas de los dinucleótidos CpG se desaminan a
Timina), y principalmente por los errores de la ADN polimerasa durante la replicación del ADN. También
se
producen
desemparejamientos
durante
la
formación
de
heteroduplexes
en
los
procesos
de
recombinación. Además, el deslizamiento de la cadena nueva sobre la cadena molde durante la replicación
también puede producir bucles de inserción/deleción (IDLs=bucles de inserción/deleción). Todos estos
tipos de desemparejamiento se corrigen por el sistema MMR (mismatch repair), cuyos componentes
conocidos en humanos son hMLH1, hMSH2, hMSH3, hMSH6, hPMS1, hMLH3 y hPMS2 (homólogos de MutS y
MutL de E. coli). Estas subunidades actúan como heterodímeros hMSH2/hMSH6, que reconocen tanto los
bucles (loops) de inserciones/deleciones de 1 a 8 nucleótidos como los desemparejamientos simples de una
base; o bien actúan como heterodímeros hMSH2/hMSH3, que reconoce sólo bucles. Cada uno de estos
dímeros, a su vez, actúa junto con los homólogos de MutL, que son hMLH1/hPMS2 y hMLH1/hPMS1
(recientemente se ha descrito también hMLH1/hMLH3). En concreto, los heterodímeros hMSH2/hMSH6 junto
con hMLH1/hPMS2 reparan los desemparejamientos simples, mientras que cualquiera de los dos complejos
(hMSH2/hMSH3 ó hMSH2/hMSH6) en combinación con hMLH1/hPMS2 son capaces de reparar stem-loops
(tallo-bucle) producidos por IDLs, como se muestra en la figura.
La Figura 6.1 muestra algunos ejemplos de desemparejamientos entre
nucleótidos normales y el funcionamiento del sistema de reparación de
desemparejamientos MMR.
En E. coli, este sistema actúa uniéndose al desemparejamiento y a una base metilada adyacente, corta la
cadena no metilada (recién sintetizada) hasta una distancia de 1-2 kb del mismatch, una endonucleasa
corta los nucleótidos contenidos en el asa, y la polimerasa rellena el hueco. En mamíferos el mecanismo no
está todavía totalmente explicado, pero se ha encontrado una proteína (MBD4 ó MED1) que se une a metilcitosinas, tiene actividad N-glicosilasa y forma complejos con MLH1, además de modular el sistema de MMR.
Cuando hay defectos en este proceso de reparación aparecen errores durante la replicación del ADN, errores
que se pueden ver al analizar secuencias repetidas cortas tipo Microsatélite. Por tanto, los defectos en el
sistema de reparación de desemparejamientos dan lugar al fenómeno conocido como Inestabilidad de
Microsatélites (MIN= Microstallite INstability) o "fenotipo mutador". Se conocen algunas enfermedades
debidas a mutaciones en componentes de estos sistemas de reparación. Por ejemplo, 90% de los pacientes
con cáncer colo-rectal no-polipósico hereditario (HNPCC ó Síndrome de Lynch) tienen mutaciones en uno de
los genes hMSH2, hMLH1, hPMS1, hPMS2 o hMSH6, de forma los individuos que han heredado una mutación
en uno de los alelos tienen una alta probabilidad de sufrir una segunda mutación en el otro alelo en alguna
de sus células somáticas, por lo que el riesgo global de desarrollar este tipo de cáncer es del 80-85% (o del
75% a los 55 años) en estos sujetos. Estos tumores muestran inestabilidad de microsatélites, pero además
la inestabilidad también afecta a genes que tienen repeticiones en sus secuencias codificantes (BAX,
TGFBRII). Son las mutaciones en estos genes las que a menudo llevan al desarrollo de neoplasias.
Curiosamente, los pacientes homocigotos para mutaciones en MLH1 (dos mutaciones en la línea germinal)
desarrollan en la infancia neoplasias hematológicas además de otros tumores (neurofibromatosis,
meduloblastoma), lo que sugiere la existencia de genes implicados en la hematopoyesis y en el control del
crecimiento celular que son dianas del sistema MMR.
B. Reparación de nucleótidos dañados.
CAPÍTULO 6: ORIGEN DE LA VARIACIÓN GENÉTICA EN HUMANOS
71
Otros sistemas detectan la presencia de bases anormales tales como, por ejemplo, los uracilos que
aparecen por la des-aminación de una citosina. En general, estas modificaciones están debidas a la
acción de mutágenos (benzopirenos del tabaco, agentes alquilantes, diversos agentes químicos de la dieta,
el daño causado por especies reactivas de oxígeno, así como las alteraciones debidas a la radiación
ultravioleta. Los procesos químicos que con mayor frecuencia provocan mutaciones son 1) las oxidaciones
por radicales libres, especialmente la formación de 8-oxoguanina, que se empareja con T en vez de C (se
calcula que se forman unas 10.000 al día en cada célula) y 2) las reacciones hidrolíticas, ya que la
molécula de ADN sufre una hidrólisis espontánea lenta que hace que se pierdan unas 10.000 purinas al día
en un genoma humano, con la consiguiente creación de otros tantos sitios apurínicos. También la
radiación UV produce sitios apurínicos, pero sobre todo provoca dímeros de pirimidinas.
La Figura 6.2 muestra la estructura de algunos nucleótidos anormales y la
formación de lesiones por acción de la luz ultravioleta.
En general, todas estas lesiones son graves, ya que impiden la replicación correcta del ADN y, a la larga,
llevan a la muerte celular. Podemos generalizar diciendo que las lesiones del ADN producidas por la
presencia de nucleótidos anormales se corrigen por cuatro mecanismos: reversión directa, BER (Base
Excision Repair), NER (Nucleotide Excision Repair) ó por polimerasas capaces de pasar por encima de la
lesión.
Figura 6.3 Visión general de los mecanismos de reparación de lesiones que
incluyen nucleótidos dañados.
A continuación se ve con más detalle cada uno de estos mecanismos:
1. Al contrario que otras especies, la reversión directa por enzimas fotoreactivadoras no existe en
humanos. Nuestro único recurso en este sentido consiste en un enzima llamado MGMT (metil-guanina
metil-transferasa), que puede eliminar el metilo introducido por agentes alquilantes en la guanina (el cual
daría lugar a transiciones GA, pues la O6-metilguanina se empareja con Timina).
2. La reparación por escisión de bases (BER) elimina las bases que han sufrido ataques hidrolíticos (desaminación, por ejemplo) por ROS o la 8-oxo-guanina producida por el tabaco. El paso crítico en este tipo de
reparación es la rotura del enlace N-glicosídico que une la base al esqueleto desoxi-ribosa-fosfato,
catalizado por ADN glicosilasas (específicas para determinados tipos de lesión: UDG, OGG, etc).
Posteriormente, el sitio AP (apurínico ó apirimidínico) es roto por una AP endonucleasa que cataliza la
incisión del enlace fosfodiester en posición 5’ al sitio AP. La escisión del azúcar se completa con la
eliminación del residuo desoxi-ribosa-fosfato por la acción de una desoxi-ribosa-fosfodiesterasa que
corta el otro enlace fosfodiéster. Finalmente, se rellena el hueco mediante la acción de ADN pol  y una
ADN ligasa. Este mecanismo de reparación parece necesario para la viabilidad, ya que el ratón knock-out
para ADN pol  es letal embrionario. Un proceso paralelo es crucial en la diversificación de los genes de
las inmunoglobulinas, ya que los linfocitos B expresan un enzima llamado AID (Activation-Induced
Deaminase) que desamina citosinas y las convierte en uracilos; dichos uracilos crean sitios AP que pueden
ser procesados por un complejo llamado RAD50 (que veremos más adelante) que tienen una actividad liasa
que rompe el esqueleto desoxi-ribosa-fosfato y rompe el ADN. Dichas roturas son necesarias para que los
genes de la inmunoglobulinas se reordenen y puedan dar lugar a la diversidad necesaria para una adecuada
respuesta inmune.
72
GENÉTICA HUMANA
El video de la Figura 6.4 muestra el funcionamiento del sistema de reparación
por escisión de bases (BER).
3. La reparación por escisión de nucleótidos (NER) elimina fotoproductos producidos por UV y otros aductos
que confieren estructuras anormales a la cadena de ADN. El mecanismo de actuación de este sistema de
reparación no está totalmente claro, pero se sabe que requiere la formación de un complejo entre XPC
(proteína que es esencial para NER) y RPA (proteína de unión a ADN monocatenario) con la región
lesionada. Sobre este foco también se unen XPA y el complejo TFIIH (que contiene, entre otras, las
proteínas XPB (ERCC3) y XPD (ERCC2), ambas con actividad helicasa necesaria para llevar a cabo NER). El
paso clave es la creación de dos incisiones, flanqueando la lesión, en la cadena de ADN que está dañada:
una incisión tiene lugar 3 a 9 bases en dirección 3’ de la lesión y la otra incisión se produce 16 a 25
bases en dirección 5’ de la lesión, comprendiendo unas 25-30 bases en total. En mamíferos, la incisión 3’
la lleva a cabo una nucleasa llamada XPG, y la incisión 5’ la realiza el heterodímero XPF/ERCC1. Tras las
incisiones y eliminación de la región dañada, tiene lugar la resíntesis de esa región mediante la acción de un
holoenzima que contiene PCNA y DNApol  o .
La
Figura
6.5
incluye
un
video
que
muestra
esquemáticamente
el
funcionamiento del sistema de reparación por escisión de nucleótidos (NER).
Un aspecto especialmente interesante es la relación del NER con la transcripción, a través de la presencia de
XPB y XPD en TFIIH (que es uno de los factores de transcripción generales), dando lugar al concepto de
Reparación acoplada a la transcripción (TCR=Transcription-Coupled Repair). De hecho, se ha comprobado
que el daño por UV se repara con más eficacia y más rápido en la cadena que se transcribe y en genes
transcripcionalmente activos. También se ha visto que ciertos tipos de daño oxidativo puede repararse por
TCR incluso cuando el NER no funciona. Además de los citados XPB y XPD, otras dos proteínas con actividad
helicasa (CSA y CSB) son responsables de TCR, y también se ha implicado a hMLH1 en TCR. Las
mutaciones que destruyen el sistema TCR dan lugar a una enfermedad llamada Síndrome de Cockayne.
Las mutaciones en genes que codifican otras proteínas asociadas con NER dan lugar a varias enfermedades
(Xeroderma pigmentosum, Tricotiodistrofia), que en su conjunto cursan con fotosensibilidad e
inestabilidad cromosómica, y aumento del riesgo de aparicion de melanoma (un tipo de cáncer de piel).
Finalmente, algunos pacientes tienen una variante de Xeroderma Pigmentosum sin defectos en NER
(llamada XP variante, ó XP-V), que está debida a mutaciones en el gen humano homólogo del gen RAD30
de levadura. Este gen codifica la polimerasa eta (Pol), que puede replicar el ADN correctamente incluso en
la presencia de dímeros de pirimidinas.
4. Respecto al último mecanismo de reparación de nucleótidos dañados (es decir, las polimerasas capaces
de "saltarse" la lesión), recientemente se ha visto que Pol  (polimerasa zeta) ó Pol  (polimerasa eta)
son capaces de sintetizar ADN frente a dímeros TT. Sin embargo, así como Pol  suele introducir dos
Adeninas, Pol  introduce bases incorrectas y por tanto es un mecanismo de reparación de baja fidelidad.
C. Reparación de roturas de la doble hebra del ADN.
La creación de roturas bicatenarias del ADN (DSB=Double-Strand Breaks) es un paso necesario para la
recombinación homóloga en meiosis y mitosis, y para la reordenación V(D)J de genes de las
inmunoglobulinas y receptores de células T. Además, este tipo de roturas aparecen durante la replicación
del ADN y también son causadas por diferentes agentes genotóxicos: radiación ionizante (rayos X), ROS
originados por el metabolismo celular. Los DSB se reparan por dos vías principales, en diferentes fases del
ciclo celular: Fusión no homóloga de extremos (NHEJ), que funciona sobre todo en G1/S (antes de la
CAPÍTULO 6: ORIGEN DE LA VARIACIÓN GENÉTICA EN HUMANOS
73
replicación del ADN) y Recombinación homóloga (HR), que teóricamente actuaría en S/G2, cuando ya
hay dos cromátides hermanas (de manera que se utiliza la doble hebra homóloga como molde para la
reparación).
La Figura 6.6 muestra las posibilidades de respuesta celular a la aparición de
roturas bicatenarias en el ADN (DSB) y sus efectos.
1. Recombinación Homóloga: como ya hemos comentado en el Capítulo 2, la maquinaria responsable del
mecanismo molecular de recombinación meiótica se utiliza también para reparar DSB a partir de una
cromátide hermana. El mecanismo general es bien conocido, e incluye el procesamiento de los extremos
mediante una exonucleasa 5’3’ para dejar extensiones 3’ libres, invasión de la doble hebra homóloga por
parte del filamento de ADN monocatenario recubierto de proteínas, síntesis de nuevo ADN usando la cadena
homóloga como molde, ligación y resolución de la recombinación. Da lugar a conversión génica con ó sin
sobrecruzamiento, según sea la resolución de las estructuras de Holliday).
RAD51 (homólogo del gen RecA, que en E. coli es fundamental en la respuesta SOS) forma filamentos
sobre el extremo monocatenario de ADN que resulta de la digestión de los extremos libres, y es
necesario para que se pueda realizar la invasión de la cadena libre a la doble cadena homóloga. RAD51 es
indetectable en G1 y se expresa en S/G2. Los ratones RAD51 -/- son letales embrionarios y sus células
muestran inestabilidad cromosómica. Una línea celular de pollo, en la que RAD51 está bajo el control de un
promotor represible, muestra inestabilidad cromosómica y muerte celular cuando se reprime la expresión de
RAD51, lo que refuerza la necesidad de este gen para la viabilidad celular. Hay otros genes implicados en
reparación de DSB que tienen cierta homología con RAD51 y que podrían modular la acción de éste. Por
ejemplo, se ha visto que la ausencia del gen XRCC2 (20% de homología con Rad51) disminuye la eficacia de
la recombinación homóloga en la reparación de DSB, pero no es letal; lo mismo podría suceder con RAD55 o
RAD57. Por otra parte, se ha comprobado en levadura que la proteína RPA altera la eficacia con la que se
forman los filamentos de RAD51.
RAD52 parece actuar como el ―portero‖ del mecanismo de recombinación homóloga. Esta proteína
interacciona con RPA y con RAD51, favoreciendo la formación del filamento de RAD51 en presencia de RPA.
Como el ratón RAD52-/- no es letal (sólo se observa una ligara disminución en la eficacia de recombinación
homóloga), se postula la existencia de genes homólogos de RAD52 complementen la ausencia de éste.
La expresión del complejo RAD50 no varía durante el ciclo celular, por lo que debe regularse posttraduccionalmente (mediante fosforilación o por compartimentalización en el núcleo). Este complejo tiene
actividad 5’3’ exonucleasa, y parece transducir señales de daño de ADN hacia la parada del ciclo
celular. Experimentos de irradiación ―en bandas‖ han mostrado, mediante anticuerpos monoclonales contra
un componente de este complejo, que RAD50 se asocia a los DSB muy pronto tras la irradiación. En
humanos, los pacientes con el llamado "Síndrome de Roturas de Nimega" tienen mutaciones en un
componente de este complejo llamado NBS1, muestran sensibilidad a radiación ionizante e inestabilidad
cromosómica, y las células de estos pacientes no son capaces de formar focos después de la irradiación con
rayos X ultrablandos; por tanto, lo más probable es que la proteína NBS1 sea responsable de dirigir el
complejo RAD50 a los lugares de daño del ADN.
Una observación muy interesante es la implicación de BRCA1 y BRCA2 (genes mutados en ciertos tipos de
cáncer de mama familiar) con la reparación de DSB, ya que se ha visto que las proteínas codificadas por
estos genes interaccionan con RAD51, bien directamente (BRCA2) o de manera indirecta (BRCA1). ambas
son proteínas nucleares que se expresan en S/G2, funcionan como activadores transcripcionales, y los
74
GENÉTICA HUMANA
ratones knock out de ambas son letales embrionarios. En cambio, un ratón que lleva una copia de BRCA2
truncada (BRCA2tr/tr) sufre linfomas del timo, alta inestabilidad cromosómica y estimulación de la vía de
señalización de p53. BRCA1 se fosforila tras daño al ADN, y se ha descrito la asociación de BRCA1 con el
complejo RAD50 en el momento del ciclo celular en que BRCA1 está fosforilado (S/G2). Por otra parte, en
estudios de colocalización tras irradiación similares a los descritos arriba, se ha visto que BRCA1 está
presente en focos nucleares que contienen RAD50 en unas células o en focos que contienen
RAD51 en otras células, pero no hay células en las que se asocie con ambos a la vez. Una hipótesis
atractiva es que durante la reparación de DSB por recombinación homóloga BRCA1 coopera con RAD50 en
el procesamiento de los extremos del ADN dañado y que, mediante la interacción entre BRCA1 y BRCA2
(que se asocia físicamente a RAD51), facilita el acoplamiento con los procesos de recombinación mediados
por RAD51.
La Figura 6.7 ilustra la presencia de focos de reparación en células que han
sido previamente irradiadas para generar roturas bicatenarias (DSB) en el
ADN.
2. Fusión no homóloga de extremos (NHEJ): El proceso general de reparación es similar pero sin
recombinación, ya que en este caso no existe una doble cadena homóloga: simplemente se fusionan los
extremos libres. Tras la generación del DSB, los extremos libres también son procesados por una nucleasa;
posteriormente se procede a la unión de los mismos y a la ligación, perdiéndose siempre algunas bases en
la región de unión.
Este mecanismo tiene lugar fisiológicamente en linfocitos, donde es responsable de la reordenación de
segmentos V(D)J de los genes de inmunoglobulinas. Un componente principal de este sistema es el
complejo ADN-PK (DNAPK), una serina/treonina kinasa nuclear que consta de una subunidad catalítica
(DNAPKcs) y de un heterodímero de unión a ADN llamado KU (que a su vez se compone de KU70 y KU80).
El complejo ADN-PK se asocia a los extremos rotos, ayuda al alineamiento de los extremos y facilita su
ligación. Este sistema de reparación es importante, sobre todo en células del sistema inmune, y de hecho
las mutaciones en el gen que codifica la DNAPKcs provocan la enfermedad llamada Inmunodeficiencia
Combinada Severa (SCID). Además, el complejo ADN-PK fosforila y activa una nucleasa llamada Artemis,
que es la responsable de llevar a cabo el procesamiento de los extremos libres para que se puedan religar.
Este último paso, la unión de los extremos ya procesados, es realizado por una ligasa (ADN ligasa IV) que
actúa junto con XRCC4, una fosfoproteina nuclear que también es sustrato de ADN-PK in vitro.
El video de la Figura 6.8 muestra, paso a paso, el funcionamiento del sistema
de reparación por fusión de extremos (NHEJ).
Es muy interesante la asociación que se ha encontrado en levaduras entre Ku70 y proteínas silenciadoras de
la transcripción de telómeros (Sir2, Sir3 y Sir4), sugiriendo la posibilidad de que Ku reclute proteínas Sir
a los DSB para inducir un estado de cromatina condensada que evite la transcripción o replicación y facilite
el proceso de reparación, o bien evite que los extremos libres de ADN puedan interaccionar con otras
moléculas de ADN. Dado que la disrupción de Ku o del complejo RAD50 lleva al acortamiento de telómeros
en levaduras, es lógico pensar que Ku se una al ADN telomérico e interaccione con Sir4 para inhibir la
replicación a ese nivel.
Tradicionalmente se ha considerado que el principal mecanismo de reparación de DSB en mamíferos es la
fusión de extremos (NHEJ), ya que se ha visto que la frecuencia de recombinación homóloga en mitosis es
CAPÍTULO 6: ORIGEN DE LA VARIACIÓN GENÉTICA EN HUMANOS
75
muy baja. Esto es lo contrario de lo que sucede en levaduras, donde el principal mecanismo de reparación
de DSBs es la recombinación homóloga. Actualmente, en cambio, esto está en discusión. Por un lado,
parece que la recombinación mitótica en mamíferos es más alta de lo que se creía: del orden de 10-4 a 10-5;
por otro lado, los ratones incapaces de llevar a cabo NHEJ (DNAPK -/-) no son letales, mientras que los
ratones incapaces de recombinación homóloga (RAD51-/- ó los RAD54-/-) sí son letales. Esto indica que HR
puede de alguna forma complementar la ausencia de NHEJ, pero en cambio NHEJ no puede complementar
la ausencia de HR en células somáticas.
D. Mecanismos de reparación presentes en mitocondrias.
Un tema reciente en patología genética humana es la alteración de los mecanismos de reparación del ADN
mitocondrial. Tradicionalmente se ha considerado que las mitocondrias de mamíferos no son capaces de
llevar a cabo ningún tipo de reparación, ya que los dímeros de pirimidinas no son reparados con eficacia.
Esto explicaría además la mayor tasa de mutaciones del ADN mitocondrial (ADNmt) respecto al ADN
nuclear. Hoy se sabe que hay ciertos tipos de daño que sí pueden repararse en mitocondrias (por ejemplo,
los sitios AP originados por daño oxidativo) y en general parece que las mitocondrias de organismos
superiores son capaces de llevar a cabo BER pero no NER ni MMR. El tipo de daño que puede repararse
mediante BER va a estar limitado por la presencia de ADN glicosilasas en la mitocondria, y hasta el
momento se ha demostrado la presencia de uracil-ADN-glicosilasa (UDG) y de 8-oxo-guanina-glicosilasa
(OGG). Además, otras glicosilasas tienen señales de localización mitocondrial en sus extremos N-terminal.
Una diferencia del BER que se lleva a cabo en mitocondrias con el BER nuclear es que la polimerasa
presente en mitocondrias es la ADN pol , que además posee actividad liasa (fosfodiesterasa). También
existe dentro de la mitocondria una actividad ADN ligasa, que al parecer se origina a partir del gen de la
ADN ligasa III por un codón de iniciación alternativo que crea una señal de localización mitocondrial.
76
GENÉTICA HUMANA
C. LA TRANSMISIÓN DE LOS CARACTERES HEREDITARIOS
Esta Sección incluye 6 temas en los que se tratan los aspectos fundamentales del
mendelismo y sus principales excepciones, dando paso al estudio del ligamiento
genético,
la
genética
de
caracteres
cuantitativos
y
de
las
enfermedades
multifactoriales, así como unas nociones de genética de poblaciones y evolución.
Capítulo 7. Genética mendeliana.
Planteamiento experimental de Mendel. Monohibridismo: primera ley de
Mendel. Cruzamiento de prueba. Dihibridismo: segunda ley de Mendel.
Redescubrimiento del trabajo de Mendel. Teoría cromosómica de la herencia.
A finales del siglo XIX, las observaciones de Gregor Mendel sentaron las bases biológicas de la herencia,
dando lugar a lo que hoy conocemos como Genética. Es muy importante estudiar el desarrollo histórico de
las ideas en torno a la herencia, para poner en el contexto adecuado las ideas propuestas por Mendel y
comprender la gran novedad que supusieron en su momento.
Ya los antiguos habían observado que muchos caracteres pasan de padres a hijos, y se habían preguntado
cómo podría ser esto. Hipócrates fue el primero en elaborar una teoría, llamada “pangénesis”, según la
cual cada parte del cuerpo produce algún tipo de partícula que es recogida en lo que él denominó ―semen‖
(hoy diríamos gametos) y transmitida a la descendencia. La pangénesis fue criticada por Aristóteles, que la
desechó por varias razones. En primer lugar, constató que en ocasiones unos individuos tienen rasgos más
parecidos a abuelos o ancestros remotos que a sus padres, lo que no encaja bien con el hecho de que la
herencia se transmita únicamente de padres a hijos. Además, también observó que a veces se transmiten
caracteres que aún no se poseen en el momento de tener descendencia (como la tendencia a tener canas o
la calvicie, por ejemplo). Por otro lado, apuntó el hecho fácilmente comprobable de que las mutilaciones en
animales y plantas no se heredan. Esto es algo fundamental, porque Aristóteles admitía como hecho cierto
la herencia de los caracteres adquiridos, algo universalmente aceptado hasta muchos siglos después. Como
la pangénesis no podía explicar estas discrepancias, el Filósofo propuso que lo que se hereda no son los
rasgos en sí mismos, sino la potencialidad de producirlos. Hoy en día esto nos parece un concepto
evidente, y se asemeja extraordinariamente a la idea de gen que actualmente tenemos, pero en su tiempo
fue una propuesta revolucionaria a la que no se le dio toda la importancia que requería. No hay que olvidar
que algunas nociones básicas como la existencia de gametos, la meiosis o la reproducción sexual eran
totalmente desconocidas, por lo que era difícil formular teorías que explicasen la transmisión de caracteres a
lo largo de generaciones sucesivas.
Mendel no podría haber explicado sus resultados sin comprender un concepto básico que hoy expresaríamos
diciendo que, tanto en animales como en plantas, un gameto masculino y un gameto femenino se unen para
formar un cigoto. En este sentido, un avance fundamental fue la demostración de que las plantas superiores
tienen reproducción sexual, siendo el polen el elemento masculino. Fue un botánico llamado Kölreuter, un
siglo antes de Mendel, el que elaboró y sistematizó el trabajo sobre híbridos en plantas: modos de
polinización, la obtención de híbridos con caracteres ―intermedios‖ entre los progenitores (aunque un
CAPÍTULO 7: GENÉTICA MENDELIANA
77
pequeño porcentaje de la descendencia expresa un rasgo que sólo se encuentra en uno de los
progenitores), etc. Además, pocos años antes de Mendel ya se había propuesto la idea de que un solo grano
de polen es suficiente para fecundar una planta, aunque este concepto todavía sería objeto de debate
durante algún tiempo.
En 1859, Charles Darwin publica “El Origen de las especies‖, proponiendo la evolución de las especies
mediante un proceso de selección natural. Sin embargo, Darwin no pudo proponer una explicación biológica
coherente porque no conocía las bases biológicas de la variación y de la herencia. Darwin aceptaba la
pangénesis porque era la teoría que mejor explicaba la herencia de caracteres adquiridos (lo cual le
ayudaba a explicar la selección natural) y llamó ―gémulas‖ a las partículas somáticas que un individuo
transmite a su descendencia. En su libro “The Variation in Animals and Plants under Domestication”, de
1868, Darwin recoge las ideas más prevalentes en ese momento, y reconoce la existencia de dos tipos de
variación: variación continua (caracteres cuantitativos) y variación discontinua (caracteres cualitativos). Sin
embargo, consideraba que esta última era relativamente rara y no tenía tanta importancia como la variación
continua, que podía modificarse mediante selección y por tanto era más útil para explicar el concepto de
selección natural. Aunque parece que Darwin llegó a recibir una copia de los trabajos de Mendel publicados
2 años antes, nunca llegó a leerlos y por tanto no pudo comprender la importancia de la variación
discontinua.
Planteamiento experimental de Mendel
Gregor Mendel nació el 22 de julio de 1822 en Heinzendorf. Hijo de labradores, se hizo sacerdote agustino
en 1847. En 1850 suspendió el examen que le permitiría enseñar ciencias naturales, por lo que se marchó a
Viena a estudiar física, química, zoología y botánica durante dos años. En 1853 se traslada al monasterio de
los agustinos en Brno (en lo que hoy es la república Checa) y allí comienza a hacer sus experimentos con
plantas. En 1865 presenta sus resultados y conclusiones en la reunión de la Sociedad de Historia Natural de
Brno, que son publicados un año después en las Actas de dicha Sociedad en un artículo que lleva el título
de “Versuche über Pflanzenhybriden” (Experimentos sobre Híbridos de Plantas). En 1868 fue nombrado
abad del monasterio, por lo que desde entonces no pudo dedicar tanto tiempo a sus experimentos. Murió el
6 de enero de 1884 a causa de una glomerulonefritis.
Fruto de sus observaciones trabajando con híbridos de plantas, Mendel llegó al convencimiento de que el
único modo de comprender las bases biológicas de la transmisión de caracteres hereditarios era mediante el
estudio de variaciones discontinuas, es decir, aquellos caracteres que se presentan únicamente en dos
formas alternativas. Como explica en su artículo, considera que es necesario: 1) determinar con exactitud el
número de las diferentes formas que aparecen en la descendencia de los híbridos; 2) agrupar estas formas
por separado en las distintas generaciones; 3) describir sus relaciones matemáticas exactas. Por ejemplo,
en el artículo original de 1866 dice “...Entre los numerosos experimentos hechos hasta el momento,
ninguno ha sido realizado de manera que sea posible determinar el número de las diferentes
formas en que aparecen los descendientes de híbridos, o agrupar estas formas con certeza según
generaciones separadas, o determinar exactamente sus relaciones estadísticas…” Gracias a esta
aproximación metodológica, que le supuso analizar unas 28.000 plantas, Mendel pudo observar que las
proporciones obtenidas en la descendencia de las distintas clases de híbridos se mantenían y se repetían
para varios caracteres distintos. Esto le permitió elaborar una teoría que explicase cómo podrían darse esas
proporciones y llevar a cabo experimentos concretos que validasen las predicciones formuladas por dicha
teoría. Veamos con más detalle la manera en que desarrolló sus experimentos.
78
GENÉTICA HUMANA
Monohíbridos: primera Ley de Mendel
Mendel escogió la planta del guisante Pisum sativum (aunque había cultivado y estudiado también otras
especies) porque es fácilmente cultivable, tiene un ciclo corto y los cruzamientos son fáciles de controlar.
Seleccionó 7 caracteres que mostraban variación claramente discontinua, es decir, representados cada uno
por dos formas alternativas en líneas puras. Estas líneas puras eran el resultado de autofecundar plantas
durante varias generaciones, hasta conseguir que esos caracteres se mantuviesen constantes. Los 7
caracteres fueron:

Guisantes rugosos/lisos

Guisantes amarillos/verdes

Vainas en posición axial/terminal

Vainas hinchadas/arrugadas

Vainas verdes/amarillas

Flores violetas/blancas (o la envuelta de la semilla gris/blanca, respectivamente)

Tallo de la planta alto/enano
La Figura 7.1 contiene enlaces a recursos educativos que ilustran los
conceptos básicos del mendelismo.
En primer lugar, Mendel llevó a cabo cruces monohíbridos, es decir, para cada uno de los siete caracteres
por separado cruzó plantas que se comportaban como variedades puras. Observó que sólo una de las dos
formas alternativas estaba presente en el 100% de la F1 (la primera generación filial), mientras
que la otra forma había ―desaparecido‖. Curiosamente, al autofecundar individuos de la F1, observó que esa
forma desaparecida volvía a aparecer en la F2. Lo más importante, y esta fue la aportación más
novedosa de Mendel,
estableció las proporciones en que se daba cada una de las formas en cada
generación (en la F1 y en la F2). Por ejemplo, al analizar la forma del guisante, cruzó la variedad pura que
producía guisantes rugosos con la variedad pura que producía guisantes lisos. En la F1 todas las plantas
producían guisantes lisos, pero al autofecundar estas plantas de la F1 observó que en la F2 resultante había
5.474 guisantes lisos y 1.850 guisantes rugosos, lo que supone una relación de 2,96:1 lisos frente a
rugosos. Al repetir esto para los siete caracteres, observó que se repetía el mismo fenómeno, siendo las
proporciones obtenidas muy parecidas y siempre en torno a una relación 3:1, por lo que Mendel concluyó
que se trataba de un fenómeno general que debía tener una explicación coherente. Mendel razonó que estos
datos numéricos podrían explicarse suponiendo que cada carácter está controlado por un ―factor‖ que puede
presentarse en dos formas alternativas. Por ejemplo, habría un factor responsable de la forma del guisante,
con una forma que produce guisantes lisos y otra forma que produce guisantes rugosos. Además, cada
planta debería tener dos copias de ese “factor”, que podrían ser idénticas o distintas (por ejemplo,
podría haber plantas con dos copias de la forma que produce plantas rugosas, o con una copia de cada
forma). En las variedades puras iniciales, cada planta tendría dos copias idénticas: las plantas con guisantes
lisos tendrían dos copias de la forma que produce guisantes lisos, las plantas con guisantes rugosos tendrían
dos copias de la forma que produce guisantes rugosos. Con estos presupuestos, si cada planta pasa a la
descendencia sólo una de sus copias, todas las plantas de la F1 tendrían una copia de cada progenitor,
por lo que todas tendrían una copia del factor que produce guisantes lisos y otra copia del factor que
produce guisantes rugosos. Ahora bien, si uno de los factores domina sobre el otro, todas las plantas
de esta generación serían iguales (por ejemplo, si el factor que produce guisantes lisos domina sobre el
factor que produce guisantes rugosos, todos los guisantes de la F1 serían lisos, como de hecho sucedía). Así
CAPÍTULO 7: GENÉTICA MENDELIANA
79
pues, si estos factores se transmiten a la descendencia de forma totalmente aleatoria, la F2
resultante de autofecundar plantas de la F1 (que tienen dos copias distintas del factor), estaría compuesta
por 25% de plantas con las dos copias idénticas e iguales a las de una de las variedades puras iniciales,
25% de plantas con dos copias idénticas iguales a las de la otra variedad pura inicial, y el 50% de plantas
con dos copias distintas (como las plantas de la F1). Como una copia domina sobre la otra, realmente
veríamos 75% de las plantas con la forma de una de las variedades inciales (la que estaba presente en la
F1) y 25% de las plantas con la forma de la otra variedad inicial (la que había ―desaparecido‖ en la F1). Es
decir, veríamos una proporción 3:1 tal y como Mendel había encontrado experimentalmente.
Como hemos visto, para que esta explicación sea coherente han de darse varias condiciones que se han
marcado en negrita en el párrafo anterior. Estas condiciones constituyen los 3 principios que Mendel
propuso que debían cumplirse para poder explicar las proporciones encontradas, y que a veces se agrupan
en lo que se conoce como Primera Ley de Mendel: i) los factores que determinan la herencia se
encuentran en dos formas alternativas y cada individuo lleva dos copias (idénticas o distintas), de las cuales
sólo una se transmite a la descendencia; ii) cada una de esas dos copias tiene la misma probabilidad de
pasar a la descendencia, es decir, se transmiten de modo totalmente aleatorio; iii) una de las formas de
cada factor domina sobre la otra, de modo que cuando las dos copias son distintas, el carácter se manifiesta
como si las dos copias fuesen iguales para la forma dominante. Lógicamente, en la nomenclatura moderna
podemos expresar estos conceptos de un modo mucho más preciso, pero en la época de Mendel esta
nomenclatura todavía no existía. Hoy podemos decir que los ―factores unitarios‖ de los que hablaba Mendel
son lo que llamamos genes; las formas distintas que puede presentar cada gen se llaman alelos (o formas
alélicas); la transmisión de uno de los dos alelos a la descendencia se conoce como segregación; los
distintos tipos de parejas que se pueden dar son los tres posibles genotipos (dos homocigotos y un
heterocigoto). Por tanto, hoy diríamos que un carácter fenotípico está controlado por un gen que se
presenta en dos formas alélicas alternativas, una dominante y otra recesiva. Las variedades puras iniciales
son homocigotos para cada uno de los alelos, las plantas de la F1 son todas heterogicotos y sólo manifiestan
el carácter determinado por el alelo dominante; las plantas de la F2 son 25% homocigotos dominantes,
50% heterocigotos y 25% homocigotos recesivos (es decir, hay una relación genotípica 1:2:1). Los
homocigotos dominantes y los heterocigotos son fenotípicamente idénticos, por lo que encontraremos una
relación fenotípica 3:1 en la F2.
Para expresar esto de un modo más gráfico, hoy en día usamos una letra para indicar cada forma alélica y
representamos los cruces de manera esquemática. Por ejemplo, podemos designar el alelo que produce
guisante lisos como R y el alelo que produce guisantes rugosos como r, siendo R dominante sobre r. Las dos
variedades puras iniciales serían homocigotos, RR en el caso de las que producen guisantes lisos y rr las
que producen guisantes rugosos. El cruce inicial se puede representar como RR X rr. Si cada alelo segrega
al azar, cada alelo R puede combinarse con un alelo r, pero en la descendencia (generación F1) todas
las plantas tendrán genotipo Rr. Como R es dominante, su fenotipo será de guisantes lisos. Al cruzar
plantas de la F1 entre sí, tendremos cruces del tipo Rr X Rr. Ahora tenemos cuatro posibles combinaciones
de alelos en la descendencia (RR, Rr, rR y rr), cada una de ellas con la misma probabilidad de producirse. Es
decir, en la F2 tendremos 25% de plantas con genotipos RR, 25% con genotipo Rr, 25% con genotipo rR y
25% con genotipo rr. Como los genotipos Rr y rR son iguales desde el punto de vista funcional
(heterocigotos, da igual el orden), tendremos un 25% de homocigotos dominantes (RR), 50% de
heterocigotos (Rr) y 25% de homocigotos recesivos (rr). Como R es dominante, los heterocigotos y
los homocigotos RR son idénticos (todos producen guisantes lisos), y por tanto el 75% de las plantas
producirán guisante lisos y el 25% rugosos. Es muy útil utilizar métodos gráficos para representar los
cruzamientos, porque eso simplifica el cálculo de las proporciones genotípicas en la descendencia. El método
más sencillo es quizás el de los cuadrados de Punnett (ideados por Reginald Punnett), que consisten en
80
GENÉTICA HUMANA
representar los alelos de un progenitor en horizontal y los del otro progenitor en vertical, formando unas
cuadrículas que se rellenan con los genotipos resultantes.
Los enlaces de la Figura 7.2 ayudan a comprender gráficamente las
proporciones genotípicas y fenotípicas del cruce monohíbrido.
También se puede utilizar un método ramificado, tanto para calcular los genotipos como los fenotipos. Por
ejemplo, en un cruce del tipo Rr X Rr estableceríamos la probabilidad de cada alelo de uno de los
progenitores (½ R y ½ r, en este caso) y después, para cada uno de ellos, establecemos la probabilidad de
cada alelo del otro progenitor. Al tratarse de sucesos independientes, las probabilidades se multiplican para
calcular la probabilidad de cada genotipo en la descendencia. Así, en nuestro ejemplo, ½ R (del primer
progenitor) puede combinarse por igual con cualquiera de los alelos del segundo progenitor (con ½ R ó con
½ r). Por tanto, podríamos representarlo esquemáticamente de modo ramificado:
½ R = ½ X ½ = ¼ RR
½R
½ r = ½ X ½ = ¼ Rr
½ R = ½ X ½ = ¼ rR
½r
½ v = ½ X ½ = ¼ rr
Como Rr y rR son iguales, tenemos las proporciones genotípicas ¼ RR, ½ Rr y ¼ rr, o lo que es lo
mismo 1:2:1.
Impresiona bastante seguir el razonamiento de Mendel, cómo a partir de una simple proporción fenotípica
deduce los principios generales que la explican. De todas formas, esto no era más que una hipótesis
plausible, por lo que Mendel se propuso diseñar los experimentos que pudiesen confirmar las predicciones
que se derivaban de su teoría. Para ello hizo dos tios de experimentos. Por un lado, llevó a cabo
cruzamientos prueba, que es un tipo de retrocruzamiento (cruzar una planta con uno de sus
progenitores). El cruzamiento prueba consiste en fecundar una planta de la F1 con el progenitor homocigoto
recesivo, es decir, con la variedad pura cuyo fenotipo desaparecía en la F1. Si los postulados son ciertos,
este cruzamiento entre un heterocigoto y un homocigoto recesivo debería dar descendencia con 50% de
plantas heterocigotos y 50% homocigotos recesivos. Siguiendo con el ejemplo de la forma del guisante, si r
es el alelo recesivo y R el dominante, tendríamos que todas las plantas de la F1 son Rr. Si hacemos el
cruzamiento prueba con plantas rr, tendríamos un cruce Rr X rr en el que el 50% de la descendencia
será Rr y el 50% será rr: es decir, la mitad de los guisantes serán lisos (R domina sobre r) y la mitad
rugosos. La otra comprobación que hizo Mendel fue autofecundar plantas de la F2. Como hemos visto,
25% de éstas deberían ser RR (guisantes lisos), 50% Rr (también lisos) y 25% rr (rugosos). Al
autofecundar plantas rugosas (rr), todos los guisantes resultantes deberían ser también rugosos. En
cambio, de todas las plantas de la F2 con guisantes lisos un tercio deberían ser homocigotos y dos tercios
heterocigotos. Por eso, al autofecundar plantas con guisantes lisos, un tercio de los cruces deberían ser RR
X RR y dar descendencia con 100% de guisantes lisos en la F3; dos tercios de los cruces deberían ser del
tipo Rr X Rr y dar descendencia en las proporciones fenotípicas 3:1 típicas de este cruce. Pues bien, en
todos los casos Mendel encontró que las proporciones encontradas experimentalmente se ajustaban
perfectamente a lo esperado, para todos los caracteres estudiados. Con esto, concluyó que los principios
propuestos eran correctos y explicaban la transmisión hereditaria de la variación discontinua.
CAPÍTULO 7: GENÉTICA MENDELIANA
81
La Figura 7.3 ilustra las pruebas utilizadas para confirmar la validez de los
postulados de la primera ley de Mendel.
ALTAS
ENANAS
3
F2
50% Tt
:
1
25% TT
25% tt
autofecundación
Tt X tt
F3
50% Tt
25% TT
3
TT X tt
tt X tt
100% TT
100% tt
25% tt
:
1
Segunda Ley de Mendel: dihíbridos y trihíbridos
No contento con lo que había encontrado al analizar de cada uno de los caracteres por separado, Mendel se
preguntó qué sucedería al estudiarlos conjuntamente. En primer lugar llevó a cabo cruces dihíbridos, es
decir, entre plantas que se comportaban como variedades puras para dos caracteres distintos a la vez. Por
ejemplo, estudió el color y la forma del guisante, obteniendo plantas con guisantes amarillos y lisos
simultáneamente, y plantas con guisantes verdes y rugosos. Estas plantas podían considerarse variedades
puras para ambos caracteres, porque siempre se daban esas mismas combinaciones de forma y color. Al
cruzar plantas de ambas variedades puras, Mendel observó que en la F1 todos los guisantes eran
iguales: amarillos y lisos a la vez; es decir, manifestaban los dos caracteres dominantes. La
autofecundación de estas plantas de la F1 dio como resultado una F2 con proporciones de 9/16 de
dobles dominantes (amarillos/lisos), 3/16 para cada uno de las dos combinaciones de un
dominante con un recesivo (3/16 amarillos/rugosos y 3/16 verdes/lisos) y 1/16 de dobles
recesivos (verdes/rugosos). Al analizar estos resultados, Mendel se dio cuenta de que éste sería
precisamente
el
resultado
esperado
si
consideramos
el
cruce
dihíbrido
como
dos
cruces
monohíbridos independientes. En estas circunstancias, cada planta de la F1 produciría cuatro posibles
tipos de gametos: si denominamos R/r a los alelos liso/rugoso y V/v a los alelos amarillo/verde, las plantas
de la F1 (con guisantes amarillos y lisos) serían heterocigotos para ambos caracteres con genotipo VvRr.
82
GENÉTICA HUMANA
Por tanto, cada una de estas plantas puede transmitir cuatro posibles combinaciones alélicas: VR, Vr, vR y
vr. De este modo, al cruzar dos plantas de la F1 tendríamos 16 posibles tipos de cruces:
VR X VR
Vr X VR
vR X VR
vr X VR
VR X Vr
Vr X Vr
vR X Vr
vr X Vr
VR X vR
Vr X vR
vR X vR
vr X vR
VR X vr
Vr X vr
vR X vr
vr X vr
Podemos calcular fácilmente los genotipos resultantes de cada cruce usando cuadrados de Punnett ó con el
método ramificado genotípico (VR X VR tendrá descendencia con genotipo VVRR, etc.). Como algunos
cruces son idénticos (por ejemplo, los dos que están en negrita), podemos agrupar los genotipos resultantes
y obtenemos 9 posibles genotipos distintos en la descendencia, en las siguientes proporciones: 1/16
VVRR, 2/16 VVRr, 2/16 VvRR, 4/16 VvRr, 1/16 VVrr, 2/16 Vvrr, 1/16 vvRR, 2/16 vvRr y 1/16 vvrr. Debido a
la dominancia del liso y del amarillo, estos 9 genotipos dan lugar solamente a 4 fenotipos en las
siguientes
proporciones:
9/16
amarillos/lisos,
3/16
amarillos/rugosos,
3/16
verdes/lisos
y
1/16
verdes/rugosos. Esto lo vemos muy bien usando el método ramificado fenotípico: si la probabilidad de
amarillos:verdes en la F2 es de 3:1, observaremos ¾ amarillos y ¼ verdes. Ahora bien, si de cada uno de
estos hay ¾ lisos y ¼ rugosos, al final las probabilidades de cada fenotipo se pueden calcular:
¾ lisos = 9/16 amarillos y lisos
¾ amarillos
¼ rugosos = 3/16 amarillos y rugosos
¾ lisos = 3/16 verdes y lisos
¼ verdes
¼ rugosos = 1/16 verdes y rugosos
Pues bien, éstas fueron precisamente las proporciones que Mendel encontró al realizar estos cruces, la
proporción fenotípica 9:3:3:1 de dobles dominantes : dominante/recesivo : recesivo/dominante : doble
recesivo. Dado que sus resultados se ajustaban al modelo teórico, Mendel formuló su cuarto principio -también conocido hoy como la Segunda Ley-- que establece que las parejas de factores segregan no
sólo al azar, sino además de manera independiente para caracteres distintos.
La Figura 7.4 contiene un enlace que ayuda a comprender los cruces
dihíbridos.
Mendel también quiso comprobar este postulado realizando cruzamientos prueba de las plantas de la F2
con el progenitor doble homocigoto recesivo. Por ejemplo, los 9/16 de plantas con guisantes amarillos y
lisos de la F2 son el resultado de sumar todas las plantas con cuatro genotipos distintos: VVRR (1/16), VVRr
(2/16), VvRR (2/16) y VvRr (4/16). Es decir, de todas las plantas de la F2 con guisantes amarillos y lisos,
1/9 serán VVRR, 2/9 serán VVRr, 2/9 serán VvRR y 4/9 serán VvRr. ¿Cómo saber los genotipos de estas
plantas? Al igual que en el monohibridismo, mediante los cruzamientos prueba de cada una de ellas
con una variedad pura doble homocigota recesiva (vvrr). Mendel predijo cómo debería ser la
descendencia resultante de cada uno de estos cruces. Por ejemplo, al cruzarse los dobles homocigotos
dominantes de la F2 (VVRR) con una planta vvrr darán un 100% de descendencia de tipo doble heterocigoto
VvRr y por tanto con fenotipo amarillo y liso. Las plantas con genotipo VVRr en la F2 darán, en cambio, dos
tipos posible de gametos (VR y Vr), por lo que el cruce prueba VVRr X vvrr dará como resultado un 50% de
plantas VvRr y un 50% de plantas Vvrr (o, lo que es lo mismo, 50% con guisantes amarillos y lisos y 50%
CAPÍTULO 7: GENÉTICA MENDELIANA
83
con guisantes amarillos y rugosos). Lo mismo puede hacerse para los otros dos cruzamientos prueba, los de
plantas VvRR y VvRr y calcular las proporciones fenotípicas esperadas en la descendencia. Pues bien,
cuando Mendel hizo todos estos cruces de prueba, comprobó que los resultados obtenidos coincidían
con las predicciones de su modelo, por lo que concluyó que este cuarto postulado era también cierto.
Mendel todavía fue más lejos y demostró que estos principios se cumplían también al cruzar plantas que se
comportaban como variedades puras para tres factores a la vez (cruce trihíbrido). El cruce de una
variedad pura triple dominante con otra triple recesiva dará como resultado 100% de triples heterocigotos
en la F1 (todos manifiestan los tres fenotipos dominantes). Para calcular la descendencia resultante de la
autofecundación de éstos, hay que tener en cuenta que cada planta producirá 8 tipos posibles de
gametos. Por ejemplo, para tres genes A, B y C con alelos dominante (mayúscula) o recesivo (minúscula),
cada triple heterocigoto (AaBbCc) dará lugar a gametos del tipo ABC, ABc, AbC, Abc, aBC, aBc, abC, ó abc.
Si hacemos un cuadrado de Punnett para calcular los genotipos resultantes y sus proporciones, vemos que
el cruce AaBbCc X AaBbCc origina 64 combinaciones diferentes. Usando el método ramificado genotípico ó
fenotípico, vemos que todas estas posibles combinaciones se pueden agrupar en 27 genotipos distintos,
que dan lugar a 8 fenotipos diferentes en proporciones 27:9:9:9:3:3:3:1. Una vez más, lo que Mendel
encontró se correspondía exactamente con lo que debería suceder de acuerdo con sus postulados.
La Figura 7.5 muestra el diagrama ramificado genotípico de un cruzamiento
trihíbrido.
Lógicamente, es fácil darse cuenta que la interpretación de los resultados aumenta notablemente al estudiar
varios caracteres a la vez, ya que las posibles combinaciones de genotipos (y, por tanto, de fenotipos) son
mayores. En cualquier caso, hay una regla sencilla para calcular el número de posibles gametos, genotipos
y fenotipos que se pueden generar al estudiar cualquier número de genes simultáneamente. Si n es el
número de caracteres distintos que estudiamos, cada uno de ellos controlado por un gen con dos alelos, el
número de gametos posible será 2n, el número de posibles genotipos es 3n, y el número de posibles
fenotipos es también 2n. Así, para tres genes tendríamos 8 gametos posibles que originan 64
combinaciones agrupadas en 27 genotipos y 8 fenotipos distintos.
Redescubrimiento del trabajo de Mendel
Como hemos visto, Mendel comenzó sus experimentos en 1856, leyó los resultados en la reunión de la
Sociedad de Historia Natural de Brno en 1865, y el trabajo fue publicado el año siguiente. En el período que
transcurre entre 1866 y el 1900, la figura más influyente fue sin duda August Weismann, un discípulo de
Darwin. En primer lugar, Weismann creía que la pangénesis no era correcta, y diseñó experimentos para
probarlo. Por ejemplo, cortó la cola de ratones durante 22 generaciones sucesivas, comprobando que el
tamaño de la cola no disminuía al nacer. Además, teniendo en cuenta los avances científicos de esos años,
Weismann reconoció la existencia de células germinales, la importancia del núcleo y la existencia de
cromosomas. Su gran contribución fue la elaboración de la teoría del germoplasma como material
hereditario. Frente a la creencia en las gémulas de origen somático, Weismann propuso que la herencia se
transmite únicamente a través de las células germinales y que las unidades hereditarias residen en
los cromosomas. Lógicamente, esas ideas eran bastante teóricas y no tenían comprobación experimental,
pero prepararon el camino para que a principios del siglo XX pudiesen comprenderse los trabajos de Mendel.
84
GENÉTICA HUMANA
Se sabe que del artículo original de Mendel se imprimieron 40 copias, aunque sólo hay constancia de 3 que
fueron enviadas a sus maestros y colegas. De todas formas, la Sociedad de Historia Natural de Brno enviaba
sus Actas a unas 130 bibliotecas de toda Europa y América, por lo que sus hallazgos tuvieron una difusión
adecuada. Sin embargo, llama la atención que durante años nunca fuesen citados, probablemente porque
no fueron comprendidos del todo. La clave para que se prestase atención al trabajo original de Mendel fue
una referencia de Focke en 1881, que en una revisión de la literatura sobre hibridaciones en plantas cita el
artículo de Mendel (bajo el epígrafe “Pisum”) y dice que “Mendel creyó haber encontrado relaciones
numéricas
constantes”.
Esta
frase
llamó
la
atención
de
Karl
Correns,
que
había
llegado
independientemente a las conclusiones ―mendelianas‖ en 1899 haciendo hibridaciones en varias especies. Al
leer la alusión de Focke a las ―relaciones numéricas constantes‖, Correns citó el trabajo original de Mendel y
fue probablemente fue el primero en comprender su verdadero alcance. Al mismo tiempo, en el año 1900,
Hugo de Vries publicó 3 artículos en los que también llegaba a conclusiones parecidas, encontrando la
relación 3:1 en varias especies distintas. En uno de esos trabajos se cita también el artículo de Mendel
(aunque no se citaba en la versión original francesa, se cita en la versión posterior en alemán: parece que
de Vries no había tenido noticia del trabajo de Mendel, pero incluyó la referencia al saber que Correns lo
citaba en su artículo). Tshermak también publicó dos artículos en 1900 llegando a conclusiones
mendelianas, pero con resultados más limitados que los dos anteriores.
William Bateson era un zoólogo de Cambridge que ya en 1894 era consciente de la importancia de
estudiar la variación discontinua con una aproximación más matemática. En mayo de 1900 dio una
conferencia en la Royal Horticultural Society en Londres, describiendo los resultados de Mendel y su
confirmación por De Vries, y se convirtió en el defensor más entusiasta del mendelismo. Junto a Reginald
Punnett fue desarrollando los principios de la herencia según las leyes mendelianas. Poco a poco los
principios de Mendel se fueron confirmando en otras plantas y en animales, y así se fue introduciendo y
fijando la nomenclatura que utilizamos hoy en día. Por ejemplo, Bateson acuñó el término ―genética‖ (del
griego genetikos) al usarlo por vez primera en una carta del 18 de abril de 1905, dirigida a Adam
Sedgewick. También inventó los términos homocigoto, heterocigoto ó alelomorfo (hoy reemplazado por
alelo). Johannsen, otro botánico del que hablaremos más adelante, introdujo en 1909 los términos gen,
genotipo y fenotipo.
¿Dónde están los “factores unitarios”? La teoría cromosómica de la herencia
La aceptación de las leyes de Mendel a principios del siglo XX supuso que se iniciara la búsqueda de las
bases celulares de la herencia, es decir, dónde residen los ―factores‖ que controlan los caracteres
hereditarios, cuál es la naturaleza de los distintos alelos, en qué estructuras se transmiten de una
generación a la siguiente, etc. Hacia el año 1900, los conocimientos de Citología en plantas y animales
permitían aventurar alguna hipótesis al respecto. Por ejemplo, se sabía que el núcleo de las células contiene
una sustancia (cromatina) que se condensa en forma de cromosomas. Se aceptaba que cada especie tiene
un número fijo de cromosomas, definido por el número de cromosomas presente en los gametos, y que en
especies de reproducción sexual los gametos tienen una copia de cada cromosoma, mientras que las células
somáticas tienen dos copias. También se había observado (al menos en plantas) que la reducción en el
número de cromosomas se produce en las últimas fases de la formación de los gametos. En esos primeros
años del siglo, por tanto, era generalmente aceptado que el material hereditario residía en los
cromosomas, aunque la naturaleza amorfa y ―estática‖ de la cromatina no permitía explicar cómo podría
ser esto. De hecho, algunas cuestiones citológicas que entonces se creían ciertas distaban mucho de la
realidad. Por ejemplo, existía la creencia general de que los cromosomas formaban un largo filamento
continuo (el ―espirema‖) que se dividía transversalmente al final de la interfase, de modo que todos
CAPÍTULO 7: GENÉTICA MENDELIANA
85
los cromosomas eran esencialmente iguales unos a otros excepto por su tamaño. Aunque también se había
observado
la
meiosis,
se
pensaba
que
en
la
división
reductora
los
cromosomas
se
dividían
transversalmente, estando unidos por los extremos. En general, la mecánica de estos procesos no estaba
clara y esta falta de detalle no permitía establecer las bases citológicas de los principios mendelianos de
transmisión de la herencia. Aunque ya Correns y Cannon habían propuesto en los primeros años del siglo
XX la hipótesis de que los genes (los ―factores‖ de Mendel) residen en los cromosomas, sus modelos eran
poco claros.
El citólogo que dio mayor impulso a este campo fue sin duda Theodor Bovery, que en 1902 llegó a la
conclusión de que los cromosomas no son equivalentes, sino que son distintos unos de otros y todos
son necesarios para dar lugar a un embrión viable. En sus estudios con embriones monospérmicos y
polispérmicos de erizo de mar, pudo observar formas anormales de desarrollo embrionario cuando el
número de cromosomas no era el adecuado. Además, esto le llevó a formular la teoría cromosómica del
cáncer, que tanta influencia tendría en años posteriores. Peor la mayor evidencia experimental de que los
procesos citológicos permitían explicar las leyes de Mendel la produjo Walter Sutton en 1902. Sutton era
un estudiante de Medicina que dedicó sus primeros años a estudiar cromosomas de células somáticas de
saltamontes, demostrando irrefutablemente por primera vez que los cromosomas se presentan en pares
homólogos en las células somáticas y que los gametos tienen una sola copia, procedente de uno
de los progenitores. En un trabajo de 1903 (“The chromosomes in heredity”) elabora más esta teoría
mostrando que distintos pares cromosómicos se orientan al azar en el huso meiótico, y así sugirió que la
división reduccional no era transversal sino longitudinal. Todos estos procesos permitían explicar
perfectamente lo que Mendel había propuesto: la segregación al azar de factores que están en parejas, de
las que sólo una copia pasa a la descendencia. De hecho, Sutton escribió en uno de sus trabajos: “I may
finally call attention to the probability that the association of paternal and maternal chromosomes in pairs
and their subsequent separation during the reducing division… may constitute the physical basis of the
Mendelian law of heredity”. A pesar de la clarividencia de sus afirmaciones y de su evidente interés por la
ciencia, Sutton no terminó su doctorado, sino que se hizo médico y se dedicó a la cirugía. En cualquier caso,
su contribución permitió explicar la base física de la herencia y el comportamiento de los ―factores‖
mendelianos, dando lugar a la teoría cromosómica de la herencia.
De todas formas, no todos aceptaban fácilmente que los factores mendelianos ―viajasen‖ en los
cromosomas. La demostración formal no llegaría hasta años más tarde gracias al trabajo de Morgan,
Sturtevant, Muller y Bridges en la mosca Drosophila melanogaster. Durante años, estos genetistas
fueron estableciendo la posición de los genes responsables de distintos caracteres en los cromosomas de la
mosca. Vieron que algunos caracteres se comportaban como si ―viajasen‖ juntos, porque no segregaban al
azar, y llamaron a este fenómeno “ligamiento”. Establecieron así varios grupos de ligamiento y
demostraron que coincidían con los 3 pares de autosomas que tiene la Drosophila, es decir, que los genes
se localizan en los cromosomas y se agrupan de modo lineal. En 1916 publicaron “The Mechanism of
Mendelian Heredity”, que se conviertió en el primer tratado detallado de las leyes mendialanas, sus
excepciones y sus bases citológicas. Aún así, la aceptación no fue unánime, y mendelistas tan brillantes
como Bateson mostraban sus reservas. Por ejemplo, en una revisión sobre “The Mechanism of Mendelian
Heredity” que hace el propio Bateson en 1916, dice: “… it is inconceivable that particles of chromatin or of
any other substance, however complex, can possess those powers which must be assigned to our factors…
The supposition that particles of chromatin, indistinguisable from each other and indeed almost
homogeneous under any known test, can by their material nature confer all the properties of life surpasses
the range of even the most convinced materialism.” Evidentemente, en aquellos años no se conocía la
naturaleza química de la cromatina y era impensable que pudiese estar compuesta por una molécula como
el ADN, tan simple en su estructura pero tan rica en su capacidad codificante y en sus funciones.
86
GENÉTICA HUMANA
En cualquier caso, hacia 1920 la citología y la genética se habían encontrado definitivamente. El
mendelismo podía ya explicarse sobre la base de la teoría cromosómica, es decir: i) los dos alelos de
cada gen se localizan en la misma posición (locus) en cromosomas homólogos, y segregan al azar a los
gametos gracias a la separación de los cromosomas durante la meiosis; ii) genes distintos segregan de
manera independiente (4º postulado de Mendel) porque se localizan en cromosomas distintos. Además,
estos conceptos se fueron ampliando progresivamente con las nociones de recombinación e intercambio de
material genético entre cromosomas homólogos, ligamiento, etc.
CAPÍTULO 8: HERENCIA RELACIONADA CON EL SEXO
87
Capítulo 8. Herencia relacionada con el sexo.
Cada sexo tiene distinta constitución cromosómica. Los genes situados en el
cromosoma X muestran un modo especial de herencia. Determinación
genética del sexo en humanos. Compensación de dosis: hipótesis de Lyon.
Estructura de los cromosomas sexuales humanos.
Cada sexo tiene distinta constitución cromosómica
En 1891, Hermann Henking describió un corpúsculo en el núcleo de las células de insectos machos de la
especie Pyrrhocoris (un tipo de chinche). Dicho corpúsculo se formaba durante la meiosis, y Henking lo
denominó "cuerpo X" por su naturaleza desconocida. Cuando se observó la meiosis con detenimiento, se
comprobó que 22 de los 23 cromosomas de esta especie se emparejaban durante la meiosis para formar 11
parejas, pero otro cromosoma quedaba condensado y daba lugar al "cuerpo X" en uno de los polos en
algunas células. Al reconocerse que se trataba de un cromosoma, dicho corpúsculo pasó a llamarse
cromosoma X. A principios del siglo XX, en 1905, Edmund B. Wilson y una de sus estudiantes de
doctorado, Nettie M. Stevens, comprobaron que el número de cromosomas X difiere entre machos y
hembras. Estudiando insectos del género Protenor (saltamontes) y el Lygaeus turicus, observaron que cada
sexo tiene configuraciones cromosómicas distintas, y llegaron a la conclusión de que el sexo está
determinado por el número de cromosomas X presentes en las células. En Protenor comprobaron que las
hembras tienen dos ejemplares de este cromosoma (XX) y en cambio los machos sólo tienen uno (XO). A
este tipo de determinación cromosómica del sexo le llamaron modo XX/XO. En Lygaeus, en cambio,
vieron que la situación era ligeramente distinta, ya que las hembras son XX y los machos tienen ―además
de un cromosoma X― otro cromosoma más pequeño llamado cromosoma Y. A este tipo de configuración
le llamaron modo XX/XY. Estas observaciones pusieron de manifiesto el hecho fundamental de que uno
de los sexos produce dos clases distintas de gametos: con ó sin cromosoma X en el caso del modo
Protenor; con cromosoma X ó con cromosoma Y, en el modo Lygaeus. Al sexo que produce gametos
distintos se le llama, por tanto, sexo heterogamético. Aunque lo más habitual es que el sexo
heterogamético sea el masculino, como en la especie humana, esto no siempre es así. Por ejemplo, en
muchas especies de aves el sexo heterogamético es el femenino, y siguen un modo distinto de
determinación cromosómica del sexo, que se llama ZZ/ZW. En humanos se sigue el modo XX/XY, mientras
que en la mosca Drosophila melanogaster, a pesar de que tiene un cromosoma Y, se sigue el modo XX/XO.
Los genes situados en el cromosoma X muestran un modo especial de
herencia
Como hemos visto, en el laboratorio de Tomas H. Morgan, conocido como la "Fly Room" ("Habitación de
las Moscas"), se establecieron los principios del mendelismo estudiando diversos caracteres y mutaciones en
Drosophila. Morgan observó en 1910 que en el caso de la mutación white del ojo de Drosophila a veces no
se cumplían las proporciones mendelianas esperadas. Observó que el patrón de herencia de esta mutación
dependía del sexo del progenitor que transmitía la mutación. Así, el cruce entre un mutante white
macho y una hembra silvestre daba una F1 con 100% de ojos silvestres (rojo ladrillo) y una F2 con la
proporción 3:1 (rojo:blanco), que sería la proporción esperada si el alelo silvestre (rojo) es dominante sobre
el mutante white. En cambio, el cruce recíproco, en el que la mutación white estaba en el progenitor
88
GENÉTICA HUMANA
hembra, daba una F1 con una proporción 1:1 en la que todos los machos tenían ojos blancos.
Además, esta misma proporción se repetía en la F2, teniendo el 50% los machos ojos blancos. Basándose
en la teoría cromosómica de la herencia de Sutton y Boveri y, sobre todo, en la hipótesis propuesta por
Stevens y Wilson pocos años antes, Morgan concluyó que el gen de esta mutación (el locus white)
estaba localizado en el cromosoma X de Drosophila. Si esto era cierto, las hembras llevarían dos
copias del gen y sólo manifiestarían el fenotipo cuando ambos alelos están mutados (es decir, la mutación
sería recesiva y sólo se manifestaría en homocigosis). Los machos, en cambio, sólo llevan un cromosoma X;
está situación se describe como hemicigosis (un solo alelo, en vez de los dos que suele ser habitual en
genes autosómicos), y por eso se dice que los machos son hemicigotos para todos los genes del
cromosoma X. En estas circunstancias, los machos siempre manifestarán el fenotipo aunque sea recesivo,
ya que el único alelo que tienen es el alelo mutante.
La Figura 8.1 ilustra los cruces entre moscas con ojos de color silvestre (rojo
ladrillo) y moscas con la mutación white (ojos blancos). También se muestra
un ejemplo de herencia ligada al cromosoma X en humanos.
Este hallazgo constituyó el primer ejemplo de ligamiento de un carácter a un cromosoma concreto, y
además fue decisivo para respaldar la teoría cromosómica de la herencia. Todos los caracteres controlados
por genes situados en el cromosoma X siguen este tipo de herencia, que pasó a llamarse "ligada al sexo".
Sin embargo, un nombre más adecuado es el de "ligada al cromosoma X", ya que hay caracteres cuya
herencia está influida por el sexo sin estar controlados por genes situados en ninguno de los cromosomas
sexuales. Por ejemplo, existen rasgos controlados por genes autosómicos que sólo se expresan en un sexo
por razones hormonales. Dichos caracteres, influidos o limitados por el sexo, pueden confundirse a
veces con caracteres ligados al cromosoma X. Aunque la herencia ligada al X puede ser de tipo recesivo ó
dominante, lo más frecuente es la de tipo recesivo, que se caracteriza porque sólo los individuos
hemicigotos (XY) manifiestan el fenotipo recesivo, ya que las hembras (XX) son habitualmente
heterocigotos. Como veremos más adelante, la herencia ligada al X recesiva es muy importante en Genética
Humana, y tiene unas características que permiten reconocerla y proporcionar un consejo genético muy
valioso.
Determinación genética del sexo en humanos
El hallazgo de que el sexo está determinado por el tipo de cromosomas sexuales que se heredan puso en
marcha la búsqueda de los mecanismos por los que estos cromosomas influyen en la determinación del
sexo. Estos mecanismos se fueron conociendo gracias a los trabajos de Calvin Bridges, un discípulo de
Morgan. Bridges demostró que el sexo de Drosophila viene determinado por el número total de cromosomas
X que están presentes, ó más exactamente por el cociente entre el número de cromosomas X y el
número de autosomas. Esta especie tiene 3 pares de autosomas y un par de cromosomas sexuales, por lo
que habitualmente el cociente X/autosomas de las moscas hembra es igual a 1 (2 copias del cromosoma
X y 2 copias de cada autosoma) y el de los machos es igual a 0,5 (1 cromosoma X y dos copias de cada
autosoma). Sin embargo, Bridges estudió el sexo de moscas con diferentes composiciones cromosómicas y
encontró que las moscas XXY son hembras normales (cociente=1), mientras que las moscas XO son
machos estériles (cociente=0,5). Esto le llevó a concluir que el cromosoma Y en Drosophila no tiene
genes necesarios para la determinación del sexo masculino, pero sí genes necesarios para la fertilidad de los
machos. Esta misma conclusión se confirmaba al estudiar la progenie de moscas con 3 cromosomas X y con
un número variable de autosomas. Bridges observó que un cociente X/autosomas=1 produce hembras
CAPÍTULO 8: HERENCIA RELACIONADA CON EL SEXO
normales
y
fértiles;
un
cociente
>1
produce
metahembras
89
infértiles;
un
cociente=0.5
corresponde a machos; un cociente=0.33 produce metamachos infértiles. Otros cocientes
intermedios producen moscas con genitales ambiguos y estériles, denominados intersex. Por tanto, la
conclusión fue que los genes que determinan el sexo en Drosophila están en los autosomas, pero el
cromosoma X debe tener algún gen necesario para determinar el sexo femenino cuando está en doble dosis
génica. Aunque no es el momento de explicar a fondo el proceso genético de determinación del sexo en
Drosophila, nos sirve para introducir esta cuestión en relación con nuestra propia especie.
En mamíferos, la determinación del sexo tiene su origen embriológico en la diferenciación de la gónada
primitiva indiferencia bien hacia la gónada femenina (ovario) ó hacia la gónada masculina (testículo). En el
caso de que se inicie la vía de diferenciación testicular, éste órgano comienza a producir Sustancia
Inhibitoria Mülleriana (en las células de Sertoli) y andrógenos (en las células de Leydig), que determinan el
desarrollo de los caracteres sexuales secundarios. Lo fundamental, por tanto, es la diferenciación inicial
de la gónada primitiva en los primeros momentos del desarrollo embrionario. Desde que se conoció la
implicación del cromosoma Y en la determinación del sexo por el modo XX/XY, se postuló que el cromosoma
Y debía contener algún factor necesario para la diferenciación de la gónada primitiva hacia testículo, y se
denominó TDF (testis-determining factor) a ese hipotético factor cuya identidad permaneció oculta durante
años. Posteriormente se descubrió ZFY ("Zinc-finger on the Y"), un gen del cromosoma Y que codifica un
factor de transcripción del tipo dedo de zinc, y se pensó que podía ser el buscado TDF. Sin embargo, la
búsqueda del gen responsable del desarrollo sexual masculino concluyó en 1993, al comprobarse que
ratones hembras en los que se había insertado en uno de los cromosomas X una copia de un gen llamado
Sry (localizado en el cromosoma Y) eran fenotípicamente machos. SRY ("Sex-determining Region on the
Y") es el gen iniciador de una cascada en la que también participan otros genes del cromosoma Y junto con
otros genes localizados en autosomas. Básicamente, el proceso comienza cuando la cresta genital es
poblada por células del mesonefros y del saco vitelino, que aportan las células somáticas y germinales
respectivamente. La cresta genital se desarrolla hacia la gónada indiferenciada por acción de dos factores de
transcripción llamados WT1 ("Wilms Tumor 1") y SF1 ("Steroidogenic Factor 1"). A partir de este momento,
la diferenciación hacia ovario o testículo será fruto de la acción de diversos genes. Si SRY está presente
(como sucede en individuos con un cromosoma Y) la acción de éste factor de transcripción y de otro llamado
SOX9 hace que la gónada primitiva se desarrolle hacia testículo. Éste, a su vez, producirá factores que
inhiben el desarrollo de los conductos de Müller, estabilizan el desarrollo de los conductos de Wolff y
promueven el desarrollo de los genitales externos masculinos. Otros genes implicados son MIS-R, el
receptor de andrógenos, INSL3 y LGR8.
En ausencia de SRY, como ocurre en mujeres con dos
cromosomas X, los genes DAX1 y WNT4 promueven la diferenciación de la gónada primitiva hacia tejido
ovárico; la ausencia del receptor androgénico y la presencia de WNT4 promueven la regresión de los
conductos de Wolff y el desarrollo de las estructuras derivadas de los conductos de Müller. Por tanto, en el
desarrollo sexual intervienen gran cantidad de genes que actúan a distintos niveles de la vía, y mutaciones
en cualquiera de ellos puede dar lugar a alteraciones en el desarrollo sexual y por tanto a varones con
cariotipo XX ó a mujeres con constitución cromosómica XY.
En la Figura 8.2 se muestra esquemáticamente la vía de determinación del
sexo en humanos.
90
GENÉTICA HUMANA
Células somáticas
(mesonefros)
Cresta genital
(gónada
indiferenciada)
Células germinales
(saco vitelino)
WT1
SF1
SRY
WNT4
DAX1
SOX9
OVARIO
WNT4
Conductos
de Müller
TESTÍCULO
AR
Regresión de
conductos de Wolff
Genitales externos
MIS-R
Conductos
de Wolff
AR
Regresión de
conductos de
Müller
Genitales externos
Compensación de dosis: hipótesis de Lyon
La distinta dotación cromosómica de ambos sexos supone que las mujeres (XX) tienen doble dosis génica
de los genes presentes en el cromosoma X, respecto de los varones XY. El distinto número de cromosomas
X que lleva cada tipo de gameto (uno en el gameto femenino y ninguno en el masculino), plantea una
cuestión fundamental: ¿cómo es posible que la distinta dosis de los genes contenidos en el cromosoma X no
provoque grandes problemas en varones? De hecho, mujeres con un solo cromosoma X (cariotipo 45,X0)
desarrollan el Síndrome de Turner. ¿Por qué no sucede esto en varones, que tienen un solo cromosoma
X? Murray Barr describió en 1949 que las células femeninas se podían distinguir por la presencia en su
núcleo de un corpúsculo de cromatina, pegado a la pared interna del núcleo, que pasó a conocerse como
corpúsculo de Barr. Posteriormente, se comprobó que el corpúsculo de Barr se ajusta a la llamada "regla
(n―1)", según la cual el número de corpúsculos de Barr de una célula es igual al número de cromosomas X
que posee esa célula (n) menos 1. Estas observaciones se completaron cuando Susumu Ohno demostró en
1959 que el corpúsculo de Barr corresponde a un cromosoma X condensado en forma de heterocromatina y
propuso que uno de los dos cromosomas X está inactivo en células somáticas, de manera que sólo se
expresan los genes del cromosoma X que permanece activo. En 1961 Mary Lyon formuló la hipótesis de
que dicha inactivación se lleva a cabo al azar en fases precoces del periodo embrionario, y queda
fijada una vez que se establece. Según esta hipótesis, todas las células hijas procedentes de una célula en
la que se ha producido la inactivación tendrán el mismo patrón de inactivación que la célula original. Esta
hipótesis permitía explicar la expresión de algunos rasgos ligados al cromosoma X, tales como el color del
pelaje en los gatos, en el que las gatas (que se conocen como gatas calico) muestran a veces manchas o
bandas de color negro, naranja y blanco, mientras los gatos macho son de color totalmente negro o
totalmente naranja. El proceso de inactivación también explicaría el patrón en mosaico de algunas
enfermedades dermatológicas causadas por genes que están en el cromosoma X, como la displasia
CAPÍTULO 8: HERENCIA RELACIONADA CON EL SEXO
91
ectodérmica anhidrótica (fenómeno ya descrito por Darwin en 1875). El estudio de las isoformas de
glucosa-6-fosfato deshidrogenasa en fibroblastos aislados de mujeres permitió confirmar la hipótesis de
Lyon, al observarse la presencia de una sola isoforma en las células de mujeres heterocigotas (que deberían
tener dos isoformas distintas). Hoy en día, el fenómeno de inactivación temprana y aleatoria de un
cromosoma X en mujeres es universalmente aceptado, y se conoce también con el nombre de
"Lyonización" en honor a Mary Lyon. Mediante este mecanismo, las células somáticas femeninas tienen
uno de sus cromosomas X en estado inactivado, es decir, transcripcionalmente silenciado y altamente
compactado en forma de heterocromatina. La inactivación del X se realiza al azar mediante un mecanismo
de recuento que determina el cociente entre el número de cromosomas X y el número de autosomas. Si se
detecta más de un cromosoma X, el proceso continúa con la inactivación, inicialmente temporal e
inestable, de todos los cromosomas X menos uno. Finalmente, el proceso termina con el silenciamiento
estable y definitivo de esos cromosomas. Aunque los mecanismos moleculares que regulan estos procesos
no se entienden completamente, se conocen las regiones cromosómicas implicadas y los genes más
importantes en el proceso de inactivación, como se describe a continuación.
Los procesos de inactivación se ejecutan gracias un locus multifuncional denominado XIC, que está
localizado en Xq13 y que contiene los elementos necesarios para el recuento del número de cromosomas X,
para la elección del X que será silenciado y para el propio mecanismo de silenciamiento. Este locus incluye
el gen XIST, un gen de 32 kb que se transcribe en un ARN de 19 kb, es procesado y poliadenilado pero no
se traduce. XIST es necesario para iniciar el silenciamiento del cromosoma X, pero no para los
mecanismos de contaje, elección ni para el posterior mantenimiento del estado silenciado. En XIC también
se encuentra el mecanismo de contaje y posiblemente un mecanismo de elección, que dependen del locus
XCE.
La Figura 8.3 muestra un ejemplo del fenómeno de inactivación del X.
También se incluye un esquema del locus XIC.
XIC
Tsx
Xist
TsiX
Brx
Cdx4
Xce
Todos estos procesos comienzan en los estadios iniciales del desarrollo embrionario. Así, en la mórula de 48 células se detecta expresión de XIST a bajo nivel en ambos cromosomas X, tanto en el de origen
paterno (Xp) como en el de origen materno (Xm). A partir de ese momento, XIST deja de expresarse en
uno de los cromosomas X (en el caso de embriones XX), o en el único cromosoma X (en embriones XY). Por
tanto, la expresión inicial de XIST es transitoria y sólo se estabiliza en torno a la fase de blastocisto en uno
de los dos cromosomas X (en aquél que quedará finalmente inactivado). Recientemente se ha descubierto
un gen antisentido, denominado TSIX, cuyo transcrito se solapa parcialmente con el ARN codificado por
92
GENÉTICA HUMANA
XIST. Curiosamente, TSIX sigue un patrón de expresión similar a XIST: inicialmente se expresan ambos
alelos, pero al comienzo de la inactivación únicamente se expresa el alelo del cromosoma X que
permanecerá activo. Esto sugiere que la expresión de TSIX juega un papel importante en la expresión
transitoria de XIST y en la elección del cromosoma que finalmente será inactivado. En este proceso participa
el factor CTCF, que se une a la región de metilación diferencial cercana a TSIX. Dicha unión sólo se produce
cuando esa región está des-metilada, y tiene dos posibles efectos: o bien impide la acción de un enhancer
sobre XIST (porque CTCF es un elemento aislador ó insulator); ó bien estimula la transcripción de TSIX, con
el consiguiente silenciamiento de XIST.
Tras la elección, tiene lugar el proceso de iniciación del silenciamiento, seguida de otros cambios que
permiten mantener el estado silenciado. En este proceso, el ARN codificado por XIST recubre todo el
cromosoma y desencadena los cambios que caracterizarán al cromosoma X inactivo: metilación de las islas
CpG, desacetilación de las histonas, replicación tardía en la fase S, presencia de una histona especial
(macroH2A) en vez de H2A. Recientemente también se ha visto que la lisina 27 de la histona H3 está
metilada en el cromosoma X inactivo. En cambio, el ARN codificado por XIST no llega a estabilizarse en el
X que permanecerá activo, y finalmente el propio gen XIST se silencia y deja de expresarse. Lógicamente,
en un embrión XY sólo hay expresión baja y transitoria de XIST en el cromosoma X de origen materno, que
nunca se inactiva porque el mecanismo de contaje detecta la presencia de un solo cromosoma X.
El video de la Figura 8.4 sirve para ilustrar el proceso de inactivación del
cromosoma X.
Mary Lyon también ha propuesto que la propagación del estado inactivado a partir del XIC se ve facilitada
por la presencia de elementos distribuidos a lo largo de todo el cromosoma X y que actuarían como
"estaciones repetidoras" del proceso de inactivación. Unos elementos que podrían cumplir esta función son
los LINE, que son especialmente abundantes en el cromosoma X respecto a los autosomas (forman un 30%
de la secuencia de este cromosoma). Además, al estudiar pacientes con translocaciones entre el cromosoma
X y un autosoma, se ha comprobado que la inactivación del X se propaga a los autosomas pero sólo
parcialmente, y que esta propagación es directamente proporcional a la riqueza en LINEs de cada
autosoma. La secuenciación del cromosoma X apoya esta hipótesis, ya que se ha comprobado que los LINE
se distribuyen a lo largo del X de manera coherente con la inactivación: son especialmente abundantes
en las zonas que flanquean el XIC y disminuyen en abundancia en las regiones más distales del brazo
corto, precisamente la región donde la inactivación es más débil.
Es muy importante tener claro que la inactivación del cromosoma X no es completa, es decir, no afecta
a todos los genes del cromosoma. De hecho, se estima que sólo un 65% de los genes presentes en el
cromosoma X se inactivan; un 20% de los genes se inactivan sólo parcialmente (es decir, no están
inactivados en todas las células) y un 15% escapan totalmente al proceso de inactivación. Esto quiere
decir que, para esos genes, existen dos copias funcionales en mujeres XX pero sólo existe una copia en
varones XY. Para evitar las diferencias de dosis génica en estos casos, algunos de estos genes que escapan
a la inactivación tienen un gen homólogo funcional en el cromosoma Y, lo que hace que ambos sexos tengan
la misma dosis génica funcional. Se piensa que el fenotipo de mujeres X0 con Síndrome de Turner se
debe precisamente a la disminución de dosis de todos o algunos de los genes que escapan la inactivación,
ya que estas pacientes sólo tienen una dosis funcional de estos genes (cuando deberían tener dos).
Estructura de los cromosomas sexuales humanos
CAPÍTULO 8: HERENCIA RELACIONADA CON EL SEXO
93
Lo que ahora conocemos como cromosomas X e Y, formaban una pareja de autosomas hace
aproximadamente 300 millones de años. Los datos más recientes apoyan la "ley de Ohno" (formulada por
Susumu Ohno en 1967), que dice que el primer paso en el proceso de creación del dimorfismo de los
cromosomas sexuales fue la fijación del gen responsable del desarrollo del sexo masculino en uno de los
cromosomas (el que se convertiría en el futuro cromosoma Y) y su pérdida en el otro cromosoma del par (el
futuro X). Después, la limitación progresiva de recombinación entre ellos condujo a una evolución separada
de ambos cromosomas: el Y perdió material rápidamente por la falta de recombinación, sufrió varias
duplicaciones y se quedó con pocos genes, de los cuales un gran porcentaje tienen homólogos en el X. El
cromosoma X, en cambio, se conservó mejor gracias a la existencia de recombinación entre las dos copias
presentes en mujeres, y fue evolucionando progresivamente desde metaterios (mamíferos sin placenta,
como los marsupiales) a euterios (mamíferos con placenta). Al final, en el cromosoma X actual conserva
una región del autosoma ancestral de prototerios (mamíferos que ponen huevos), además de otra región
―añadida‖ después de la separación de los metaterios. Actualmente, ambos cromosomas sexuales sólo se
recombinan entre ellos en las dos pequeñas regiones pseudoautosómicas que están en los extremos de
cada brazo. La reciente secuenciación completa del cromosoma X en el año 2005 ha aclarado la estructura
de los cromosomas X e Y:
En el cromosoma X se pueden distinguir:

Dos regiones pseudoautosómicas PAR1 y PAR2, por las que se recombinan los cromosomas X e Y
(al menos una recombinación en PAR1 es necesaria en la meiosis masculina). PAR1 (en Xp e Yp)
tiene un tamaño de 2,7 Mb, mientras que PAR2 (en el extremo del brazo largo de ambos
cromosomas) mide 330 kb.

Una gran región conservada (XCR, "X-conserved region") que ocupa la mayor parte del brazo
largo del cromosoma X. Esta es la secuencia más antigua y representa los restos del autosoma
original de prototerios del que se originaron los cromosomas X e Y actuales. Una pequeña porción
de ésta región se encuentra transpuesta al cromosoma Y (XTR, "X-transposed region"),
calculándose que dicha transposición tuvo lugar hace 5 millones de años, después de la separación
de humanos y chimpancés.

Una región "añadida" (XAR, "X-added region") más joven que XCR, al parecer incorporada al
cromosoma X a partir de otro autosoma hace unos 100 millones de años en mamíferos placentarios
(euterios). Esta región representa la mayor parte del brazo corto del cromosoma X actual. Algunos
fragmentos de la porción más distal de este brazo, cercanos a la PAR1, están también presentes en
el cromosoma Y, distinguiéndose hasta 12 bloques de homología entre ambos cromosomas.
De los aproximadamente 1.000 genes que hay en el cromosoma X, 54 tienen un homólogo funcional en
el Y: 24 de ellos están en PAR1, 5 en PAR2 y 25 en las regiones no-recombinantes de ambos cromosomas.
De éstos 25, 15 están en la XAR y 3 en XTR; los 7 genes restantes se localizan en la XCR y por eso se
piensa que descienden del autosoma ancestral.
La Figura 8.5 muestra la estructura de los cromosomas X e Y humanos.
94
GENÉTICA HUMANA
XAR
XTR
PAR1
XTR
XTR
XCR
Genes que escapan a la inactivación
PAR1
PAR2
El cromosoma Y es el más peculiar de todos los cromosomas humanos, ya que de sólo 23 Megabases (de
un total estimado de 50 Mb) están formadas por eucromatina. Por ello, este cromosoma es también el más
pobre en genes. La peculiar estructura del cromosoma Y actual se debe a su comportamiento durante la
meiosis: lógicamente, no puede quedar sin emparejar durante la meiosis, y de hecho se empareja con el
cromosoma X a través de las dos regiones pseudoatosómicas que contiene en los extremos del brazo corto
y del brazo largo, respectivamente. El resto del cromosoma Y no se recombina nunca, y por esto ha ido
acumulando mutaciones y degenerando con el tiempo. La región eucromática del Y comprende unas 22
Mb (el resto del cromosoma es heterocromatina) y está constituida por 3 tipos de secuencias: i) un
bloque de 3,4 Mb fruto de una transposición procedente del X (XTR, región transpuesta desde el X); ii) un
total de 8,6 Mb de secuencias derivadas del cromosoma X, que representan las regiones derivadas del
cromosoma ancestral; y iii) un total de 10,2 Mb de regiones palindrómicas, distribuidas en 7 bloques. En
total, en el cromosoma Y sólo se han encontrado 158 unidades transcripcionales, entre las que destacan
27 genes que tienen homólogos claros en el cromosoma X. De éstos, 13 están degenerados y se han
convertido en pseudogenes; los 14 restantes son auténticos genes que se expresan en varios tejidos, con la
excepción de SRY (que sólo se expresa en células germinales masculinas). Todos estos genes se localizan
fundamentalmente en las regiones derivadas del X. Por el contrario, en las regiones palindrómicas hay
unos 60 genes, agrupados en 9 familias, que sólo se expresan en el tejido testicular y que no tienen un
homólogo claro en el cromosoma X: estos genes parecen codificar proteínas necesarias para la fertilidad
masculina. Por lo que respecta al papel de las regiones palindrómicas, parecen tener una importancia clave
en el mantenimiento de la secuencia y estructura del cromosoma Y: la recombinación entre los brazos de
cada palíndromo y la conversión de secuencias entre ellos evita la rápida degeneración que tendría lugar por
la ausencia de recombinación entre los cromosomas X e Y en esta región.
CAPÍTULO 9: MODIFICACIONES DE LAS PROPORCIONES MENDELIANAS
95
Capítulo 9. Modificaciones de las proporciones mendelianas.
Modo de estimar si se cumplen las proporciones mendelianas esperadas.
Desviaciones de las proporciones mendelianas para un carácter: dominancia
incompleta, codominancia, alelos múltiples, alelos letales. Interacción génica
y epistasia.
Ya desde el inicio de los experimentos con plantas, diversos naturalistas habían encontrado proporciones
fenotípicas en la F2 de monohíbridos o dihíbridos que no se correspondían con lo que cabría esperar según
las leyes mendelianas (3:1 y 9:3:3:1, respectivamente). Como acabamos de ver, la búsqueda de las causas
de estas desviaciones permitió descubrir la herencia ligada al sexo en los caracteres controlados por genes
situados en el cromosoma X. Además, se descubrieron fenómenos como el multialelismo o la interacción
génica en aquellos caracteres que están controlados por más de un gen. Aunque todas estas situaciones dan
lugar a proporciones fenotípicas distintas a las esperadas por las leyes de Mendel, el análisis detallado de lo
que sucede viene a confirmar que, efectivamente, los postulados mendelianos también explican estas
situaciones.
Modo de estimar si se cumplen las proporciones mendelianas esperadas
Antes de pasar al estudio de estas cuestiones, es imprescindible estudiar la metodología empleada para
poder afirmar con fiabilidad si unas proporciones fenotípicas dadas se apartan significativamente de lo
esperado según las leyes mendelianas. Lógicamente, los porcentajes esperados nunca se cumplen
perfectamente porque el tamaño de las muestras no es lo suficientemente grande. Por ejemplo, en un
cruce moníbrido típico en el que analizamos 100 plantas en la F2, esperaríamos encontrar 75 con el fenotipo
dominante y 25 con el fenotipo recesivo. Sin embargo, lo más probable es que nunca encontremos
exactamente estos números, sino 74 y 26, ó 77 y 23, por ejemplo. En el caso de especies con generaciones
menos numerosas, como sucede en las familias humanas, las desviaciones pueden ser todavía mayores
debido al pequeño número de individuos que se estudia. Por tanto, es imprescindible contar con un método
cuantitativo que nos permita concluir con certeza estadística si los porcentajes encontrados se ajustan a lo
esperado. El método utilizado es el cálculo del Chi cuadrado, un estadístico que se ajusta a una
distribución concreta y que permite calcular la bondad del ajuste de unas proporciones a un modelo teórico.
El método calcula la probabilidad de que la diferencia observada entre las proporciones experimentales y las
proporciones teóricas sea atribuible al azar. La hipótesis nula es que las proporciones teóricas se
cumplen y la diferencia es explicable por el azar, sobre todo cuando el tamaño de la muestra es
pequeño. Si el estadístico 2 (chi cuadrado) supera un cierto valor, se puede rechazar la hipótesis nula con
una fiabilidad específica (5%, 1%, 0,1%) y por tanto se puede afirmar que las proporciones fenotípicas
experimentales se alejan significativamente de las esperadas según el modelo teórico.
Es fácil comprender la mecánica de este razonamiento con un ejemplo. En un cruce monohíbrido típico
analizamos 1000 individuos de la F2 y encontramos 760 con el fenotipo dominante y 240 con el fenotipo
recesivo. Esto se aparta de los 750:250 que esperaríamos encontrar si este carácter se heredase de forma
mendeliana, pero tenemos que comprobar si esta desviación es atribuible al azar (de modo que si
hubiésemos analizado 10.000 individuos las proporciones hubiesen sido más cercanas al 3:1 teórico), ó si
efectivamente este carácter no sigue las leyes de Mendel. El primer paso es el cálculo del estadístico 2 con
arreglo a la fórmula 2 =  [(O - E)2 / E], siendo O el número de casos observados y E el número de casos
96
GENÉTICA HUMANA
esperados para cada categoría. En nuestro ejemplo, para el fenotipo dominante esperaríamos encontrar 750
casos, pero hemos encontrado 760. Así, calculamos (760―750)2 / 750 = 0,133. Hacemos lo mismo para el
fenotipo recesivo: (240―250)2 / 250 = 0,4. Ahora podemos obtener el sumatorio, de modo que 2 = 0,133
+ 0,4 = 0,533. El último paso es comprobar este valor en una tabla que represente los valores máximos
del 2 a los que se puede rechazar la hipótesis nula con distintos niveles de probabilidad y para varios
grados de libertad. Si buscamos en una de estas tablas, vemos que ―para 1 grado de libertad― se puede
rechazar la hipótesis nula, con un error del 5%, cuando el valor del 2 es igual o superior a 3,841. Como el
valor calculado por nosotros es inferior, no podemos rechazar la hipótesis nula y, por tanto, las proporciones
experimentales no se apartan significativamente de lo esperado según un modelo mendeliano de herencia.
En cambio, si hubiésemos obtenido 780 dominantes y 220 recesivos, el 2 resultante sería de 4,8. Como
este valor rebasa el valor de la tabla para un grado de libertad y p=0,05 (3,841) pero es inferior al valor de
la tabla para p=0,025 (5,024), podríamos rechazar la hipótesis nula con un nivel de confianza del 95%
(p<0,05) y afirmar que las proporciones obtenidas no se ajustan a un modelo mendeliano de herencia. El
número de grados de libertad siempre es igual al número total de clases menos uno: como en nuestro
caso sólo teníamos dos clases fenotípicas, hemos utilizado 1 grado de libertad. En el caso de un cruce
dihíbrido, en el que tendremos 4 clases fenotípicas distintas en la F2, deberíamos calcular el 2 total y
buscar en la tabla el valor correspondiente para 3 grados de libertad.
La Figura 9.1 muestra el uso del
2 para estimar si unas proporciones
fenotípicas se ajustan a las esperadas según las leyes mendelianas.
Otra consideración previa a los temas que vamos a tratar en este capítulo hace referencia a la manera de
nombrar los diferentes alelos de cada gen. Es bastante evidente que al principio cada genetista utilizaba
distintas nomenclaturas, y se tardó un tiempo en alcanzar un consenso sobre la notación de los alelos.
Aunque hoy en día se pueden utilizar distintas formas de denominar los alelos, podemos dar unas reglas
generales. Como ya vimos al explicar los experimentos de Mendel, lo más habitual es denominar los alelos
con la letra inicial del carácter recesivo (por ejemplo, vimos que los alelos para el color del guisante se
llamaban V y v por ser ésta la inicial de "verde", que es el carácter recesivo). Así, podemos utilizar una sola
letra tanto para el alelo dominante (poniéndola en mayúscula) como para el recesivo (en minúscula). En
otros casos, se estudian mutaciones respecto a un carácter normal, y hay que establecer nombres para los
alelos que causan las mutaciones y para el alelo normal. Un buen ejemplo es el color del ojo de Drosophila,
para el que hay un alelo que causa el color normal rojo ladrillo y otros alelos mutantes que dan lugar a ojos
de distintos colores. En general, a los alelos normales se les denomina alelos "silvestres" o "salvajes",
porque son los que se encuentran en la naturaleza. Cada alelo mutante se representa por una o varias
letras que describen la mutación (br para "brown", ojos marrones, por ejemplo) y el alelo salvaje se
representa entonces por esas mismas letras añadiendo el superíndice
+
. Por ejemplo, una mosca
heterocigota para la mutación "brown" tendría un genotipo br+/br. En ocasiones se eliminan las letras del
alelo silvestre, dejando únicamente el +. Así, el genotipo anterior también podría representarse como +/br.
Dependiendo del estado dominante o recesivo del alelo mutante, éste se representa con mayúsculas o
minúsculas, respectivamente. En los casos en que no hay dominancia ó en las series alélicas (en las que hay
varios alelos para un mismo carácter y las relaciones de dominancia entre ellos son complejas) se suelen
utilizar superíndices para designar los distintos alelos, como por ejemplo en el color del plumaje de patos
"Mallard". Para este carácter hay 3 alelos denominados M, MR y md, siendo la dominancia: MR (Restricted) >
M (Mallard) > md (Dusky). En el caso concreto de la Genética Humana, las recomendaciones actuales
indican que los alelos se designen mediante un número o una letra, precedido por un asterisco, a
continuación del símbolo del gen. Por ejemplo, la variante ―Constant Spring‖ de la hemoglobina alfa-2 se
puede denominar HBA2*0001 (alelo 0001 del gen HBA2).
CAPÍTULO 9: MODIFICACIONES DE LAS PROPORCIONES MENDELIANAS
97
Modificaciones de las proporciones mendelianas al estudiar un carácter
Como hemos visto, tras los trabajos de Bateson, Morgan y muchos otros genetistas los principios
mendelianos se aceptaron como algo de aplicación general. Sin embargo, también desde el principio se
reconocieron excepciones que no podían ser explicadas por estos principios, al menos aparentemente. Por
ejemplo, observaciones en plantas habían revelado casos en los que la F1 de un cruce monohíbrido tenía
un fenotipo intermedio entre el dominante y el recesivo de los progenitores, y ese fenotipo
intermedio estaba presente también en el 50% de la F2. Este era el caso del color de la flor en algunas
especies, en las que al cruzar una variedad pura de flores rosas con otra variedad pura de flores blancas se
obtenía en la F1 un 100% de flores rosas (color intermedio entre el rojo y el blanco). En la F2 resultante de
la autofecundación de flores de la F1 se obtenían 25% de flores rojas, 50% de flores rosas y 25% de flores
blancas. Es fácil darse cuenta de que estas proporciones fenotípicas de la F2 (1:2:1) coinciden con las
proporciones genotípicas esperadas, en vez de las proporciones fenotípicas 3:1 que son habituales en
este tipo de cruces. Estos resultados sugieren que no se está cumpliendo la condición de dominancia
completa de un alelo sobre el otro, de modo que los heterocigotos muestran un fenotipo distinto (un poco
menos ―fuerte‖) que los homocigotos dominantes. La explicación para esta dominancia ―débil‖ está en que
el carácter fenotípico obedece a efectos de dosis, es decir, el fenotipo depende de la dosis en que aparece
el alelo dominante. En el ejemplo del color de las flores, podemos imaginar que el alelo recesivo da lugar a
flores blancas (cuando se trata de plantas homocigotos recesivos) porque no produce ninguna cantidad de
pigmento rojo; el alelo que da lugar al color rojo hace que se produzca una cantidad determinada de
pigmento rojo, y por tanto la presencia de dos alelos rojos (homocigoto dominante) tendrá como resultado
flores más rojas que la presencia de un sólo alelo rojo (heterocigoto rojo/blanco), en cuyo caso las flores
serán de un color rojo débil o rosa. Este fenómeno se denomina dominancia incompleta ó
semidominancia, y es muy común en caracteres fenotípicos que son el resultado de la acción de algún
enzima, ya que la actividad enzimática total dependerá del número de alelos capaces de producir el enzima
correspondiente.
Otra circunstancia que puede modificar las proporciones fenotípicas mendelianas por relaciones anómalas
entre alelos es la co-dominancia, en la que cada uno de los alelos da lugar a un producto funcional que se
expresa con independencia del otro. En estas condiciones, el heterocigoto tendrá un fenotipo distinto a
cualquiera de los dos homocigotos, que también serán distintos entre sí. Por eso, las proporciones
fenotípicas de la F2 serán también del tipo 1:2:1, como en el caso anterior. Un ejemplo típico de codominancia en un carácter codificado por un gen es el grupo sanguíneo MN en la especie humana. El
locus que codifica este carácter puede presentarse en dos formas alélicas llamadas
LM y LN, las cuales
codifican unas glicoproteínas de la membrana de los eritrocitos que dan lugar a los antígenos M y N
respectivamente. Los individuos homocigotos LM/LM tienen fenotipo M, los homocigotos LN/LN tienen
fenotipo N, y los heterocigotos LM/LN tienen fenotipo MN. Por tanto, un cruzamiento entre heterocigotos
LM/LN X LM/LN producirá proporciones fenotípicas 1:2:1 (25% MM, 50% MN, 25% NN). En el fondo, se
trata de la misma situación que veíamos para la dominancia incompleta, con la diferencia de que aquí los
dos alelos producen una proteína funcional y por tanto ambos son igualmente dominantes. Poniéndolo
en los mismos términos del ejemplo anterior, sería como una planta con un alelo que produce un pigmento
que genera flores de color rojo y otro alelo que produce un pigmento para el color amarillo: todas las
plantas de la F1 serán de color naranja (heterocigotos) y en la F2 se producirán 25% de flores rojas, 50%
naranjas y 25% amarillas.
98
GENÉTICA HUMANA
Los videos de la Figura 9.2 ilustran los conceptos de codominancia y
A
A
A
a
a
a
Concentración de enzima
dominancia incompleta.
Aunque en especies diploides cada individuo sólo tiene dos alelos en cada locus autosómico, esto no
quiere decir que esos dos alelos sean los dos únicos alelos posibles que se pueden encontrar en la
naturaleza para ese carácter. De hecho, para muchos rasgos fenotípicos es habitual que haya más de dos
alelos posibles, sobre todo si se incluyen todos los alelos mutantes que se pueden encontrar. Este fenómeno
se conoce como alelismo múltiple y el conjunto de alelos se denomina serie alélica. La presencia de
alelos múltiples es otro motivo por el que en ocasiones las proporciones mendelianas no se cumplen. El
ejemplo más ilustrativo en genética humana es el del grupo sanguíneo ABO, originado por unos antígenos
de la membrana de los eritrocitos. Estos antígenos están derivados de la sustancia H, que es una
glicoproteína de membrana que termina con los residuos N-acetil-glucosamina—Galactosa—Fucosa
(―NacGlu-->Gal-->Fucosa). El antígeno 0, codificado por el alelo IO ó i, mantiene intacta la sustancia H;
el antígeno A, codificado por el alelo IA, añade un resto N-acetil-galactosamina a la Galactosa de la
sustancia H, y el antígeno B, codificado por el alelo IB, añade una galactosa a la galactosa de la sustancia
H. Los alelos IA e IB son codominantes entre sí, pero lógicamente ambos son dominantes sobre IO ya
que éste no produce ningún antígeno distinto a la sustancia H. Teniendo en cuenta estas relaciones de
dominancia, esta serie alélica puede dar lugar a 4 posibles fenotipos (A, B, AB y O) a partir de una
gran variedad de genotipos. Por ejemplo, el cruce entre un individuo de fenotipo A y otro de fenotipo B
puede dar lugar a distintos tipos de descendencia, dependiendo de los genotipos de los progenitores. Si el
cruce es del tipo IA IA X IB IB toda la descendencia serán heterocigotos IA IB con fenotipo (grupo
sanguíneo) AB. Sin embargo, si se trata de un cruce IA IO X IB IO (en el que los progenitores también son
de grupo sanguíneo A y B respectivamente) la descendencia tendrá proporciones fenotípicas ¼ A, ¼ B, ¼
AB y ¼ O. Estos porcentajes, a primera vista, pueden confundir y llevar a pensar que este carácter no se
hereda de forma mendeliana. El análisis detallado de cada tipo de cruzamiento confirma que también se
cumplen los postulados de Mendel, aunque la presencia de más de dos alelos distintos, con diferentes
CAPÍTULO 9: MODIFICACIONES DE LAS PROPORCIONES MENDELIANAS
99
relaciones de dominancia entre sí, puede confundir la interpretación de las proporciones halladas en la
descendencia.
La Figura 9.3 muestra la estructura de los grupos sanguíneos ABO y las
consecuencias del alelismo múltiple.
N-Acetilgalactosamina
FENOTIPO A
Alelo IA
(añade N-acetilgalactosamina)
Alelo i
(no añade nada)
Fucosa
Galactosa
FENOTIPO O
N-Acetilglucosamina
Sustancia H
Alelo IB
(añade galactosa)
Galactosa
FENOTIPO B
La última situación en la que no se obtienen las proporciones mendelianas esperadas cuando se estudia un
carácter fenotípico es aquella en la que uno de los alelos es letal, es decir, impide el desarrollo embrionario
de los individuos que llevan una o dos copias de ese alelo. Cuando la letalidad se produce sólo en individuos
homocigotos para ese alelo, se habla de un alelo letal recesivo, mientras que si basta con la presencia de
un sólo alelo para causar letalidad se habla de letal dominante. Un ejemplo típico de alelos letales es el del
locus que controla el pelaje amarillo de ratones, estudiado por Cuenot en 1904. Al alelo que produce un
pelaje normal se le llama agouti (ó agutí) en referencia a un roedor de ese nombre que vive en
Sudamérica. El pelaje agutí normal se debe a que cada pelo tiene pequeñas bandas transversales negras y
amarillas, de modo que la apariencia final es de un pelaje castaño. Además del alelo agutí normal (A) y de
su correspondiente recesivo a, existe un alelo que origina un pelaje de color comletamente amarillo (AY),
que es dominante respecto al alelo agutí A. Por tanto, los cruces entre un ratón agutí y otro amarillo, o
entre dos ratones agutí, producen las proporciones mendelianas esperadas en al descendencia. Por ejemplo,
el cruce AA X AYA (ratón agutí con ratón amarillo) tendrá una descendencia con 50% de ratones agutí y
50% amarillos. En cambio, los cruces entre ratones amarillos tienen descendencia con 1/3 de
ratones agutí y 2/3 de ratones amarillos, lo cual no se corresponde con las proporciones fenotípicas
esperadas. Si el cruce fuese del tipo AYA X AYA, en la descendencia deberíamos encontrar ¼ AA, ¼ AYAY y ½
AYA, lo cual se debería traducir en ¾ amarillos y ¼ agutí (proporción 3:1 típica). La explicación reside
precisamente en que el alelo AY es letal recesivo, y provoca la muerte embrionaria de ratones
homocigotos AYAY. Por eso, al descontar el 25% de ratones AYAY nos quedamos sólo con descendencia de
100
GENÉTICA HUMANA
genotipos AA ó AYA y de ahí las proporciones encontradas. El alelo amarillo (AY) es, por tanto, un ejemplo de
un alelo letal, recesivo en cuanto a la letalidad pero dominante en cuanto al carácter fenotípico
que controla (el color amarillo del pelaje). En el caso de humanos es más difícil descubrir genes con alelos
letales, porque habitualmente no tienen otro efecto fenotípico que permita reconocerlos. A veces se ven
proporciones ligeramente distintas a las esperadas, y en esos casos se sospecha que uno de los
alelos es subvital o subletal, es decir, que causa cierta mortalidad durante el desarrollo embrionario.
Al llegar al final de este apartado, es muy importante recordar que todas las posibles desviaciones de las
proporciones fenotípicas mendelianas que hemos visto hasta ahora están causadas por problemas en los
alelos de un único gen que controla un carácter fenotípico, bien por falta de dominancia completa, por la
existencia de múltiples alelos o por la presencia de alelos letales. Por eso las hemos agrupado bajo el
epígrafe de modificaciones del monohibridismo, porque son situaciones que surjen al analizar un único gen.
Modificaciones del dihibridismo. Interacción génica y epistasia
En ocasiones, cuando se estudian dos caracteres fenotípicos también se obtienen proporciones distintas a
las esperadas según los principios mendelianos, que predicen una descendencia con proporciones 9:3:3:1 al
cruzar dos individuos heterocigotos para cada uno de los caracteres. Lógicamente, las circunstancias
estudiadas en el apartado anterior también afectarán a estas proporciones si uno de los genes que
analizamos está sujeto a codominancia, dominancia incompleta, letalidad, etc. Por ejemplo,
podemos considerar dos caracteres distintos tales como el grupo sanguíneo ABO (cuyo sistema alélico ya ha
sido explicado) y el albinismo. Éste último es un carácter mendeliano controlado en ratones por un solo gen,
con un alelo silvestre A y un alelo recesivo a que provoca albinismo en homocigotos aa. Si cruzamos
ratones dobles heterocigotos Aa/IAIB, la descendencia no se ajustará a las proporciones típicas 9:3:3:1,
sino que obtendremos ratones pigmentados con grupo sanguíneo A, B ó AB, y también ratones albinos con
cualquiera de los tres grupos sanguíneos. Las proporciones fenotípicas serán 3:6:3:1:2:1, que en el fondo
es una modificación de la relación 9:3:3:1. La razón de este fenómeno es que los alelos que determinan el
grupo sanguíneo son co-dominantes (los alelos IA y IB) y por eso se distorsionan las proporciones
fenotípicas esperadas.
Habitualmente, las anomalías en las proporciones del dihibridismo se detectan cuando se estudia un
carácter fenotípico que está controlado por dos ó más genes, debido a un fenómeno llamado interacción
génica. En efecto, aunque cada gen por separado se comporte de acuerdo a los principios mendelianos y
los genotipos sean los esperados, puede suceder que las proporciones fenotípicas sean aberrantes porque
ambos genes están controlando un mismo carácter y la acción de uno enmascara los genotipos del otro. La
interacción génica no significa que ambos genes o sus productos interaccionen directamente, sino que
participan en una misma vía o proceso biológico (como puede ser la generación de un pigmento en
varios pasos metabólicos, por ejemplo). Si cada gen actúa a distintos niveles de esa vía, uno de ellos puede
afectar la expresión del otro y dar lugar a proporciones fenotípicas inesperadas en la descendencia. El
principal obstáculo que nos encontramos para interpretar las proporciones es que, si únicamente estamos
analizando un carácter fenotípico, es imposible saber a priori si dicho carácter está controlado por un gen o
por varios. En efecto, en el caso de dos caracteres era fácil porque podíamos agrupar la descendencia en las
cuatro posibles categorías fenotípicas que surjen al considerar dos caracteres a la vez, pero aquí estamos
observando un carácter solamente. La pista que nos indica el número de genes implicados es el
denominador de las proporciones fenotípicas encontradas: si éstas se expresan en dieciseisavos,
podemos suponer que nos encontramos ante un carácter fenotípico controla por dos genes, si son
sesentaycuatroavos se tratará de 3 genes, etc.
CAPÍTULO 9: MODIFICACIONES DE LAS PROPORCIONES MENDELIANAS
101
Los efectos de la interacción génica pueden ser básicamente de dos tipos: la aparición de fenotipos
nuevos (que no estaban presentes en los progenitores) y la modificación de las proporciones típicas
del dihibridismo. Por lo que respecta al primero, recordemos que según los principios mendelianos el
carácter recesivo de uno de los progenitores desaparece en la F1 y reaparece en el 25% de la F2. En
cambio, si un carácter está controlado por dos genes distintos, a veces el resultado es que en la F2
aparecen fenotipos nuevos que no estaban presentes en la F1 ni en los progenitores. Tal es el
caso, por ejemplo, del color del pimiento Capsicum annuum, que es un rasgo fenotípico determinado por
dos loci: uno de ellos determina la producción o no de pigmento rojo, con un alelo R que produce pigmento
rojo y es dominante sobre el alelo r que no produce pigmento. El otro gen controla la degradación de la
clorofila (de color verde), con un alelo dominante C que degrada la clorofila para dar un color amarillento
(sin pigmento), y un alelo recesivo c que no degrada la clorofila y por tanto da el color verde típico. En
estas circunstancias, un cruce de variedades puras RRCC (de color rojo) X rrcc (de color verde) da
lugar al 100% de plantas RrCc (de color rojo) en la F1. Hasta aquí todo parecería indicar que el color del
pimiento está controlado por un solo gen. En cambio, el cruce RrCc X RrCc produce en la F2 unas
proporciones genotípicas con 9/16 R_C_ de color rojo, 3/16 R_cc de color marrón (por la presencia
simultánea del rojo y el verde), 3/16 rrC_ de color amarillento por la ausencia de pigmentos y 1/16 rrcc
de color verde. Esto va contra los principios del monohibridismo mendeliano típico, ya que tenemos cuatro
fenotipos distintos. Aunque esto podría sugerir la presencia de alelos múltiples para un solo locus, las
proporciones encontradas para las cuatro clases fenotípicas (expresadas en dieciseisavos) sugieren que este
carácter está controlado por dos loci. Otro ejemplo de este fenómeno es el color de los ojos de la
Drosophila, en el que el tipo silvestre de color rojo ladrillo está controlado por dos genes: brown (marrón)
y scarlet (escarlata). El locus brown tiene un alelo silvestre bw+ dominante sobre el recesivo marrón (br) y
el locus scarlet tiene un alelo silvestre st+ dominante sobre el recesivo (st) que produce ojos de color rojo
escarlata. Las moscas con ojos de color silvestre tienen un genotipo bw+bw+/st+st+. Al cruzar una mosca
mutante con ojos de color marrón (bwbw/st+st+) con otra de ojos escarlata (bw+bw+/stst), toda la F1
es doble heterocigótica (bw+bw/st+st) y por tanto con ojos del color silvestre rojo ladrillo. En la F2
resultante del cruce entre moscas de la F1, se obtiene un nuevo fenotipo (ojos de color blanco) en 1/16
del total, y proporciones 9:3:3:1 de los fenotipos silvestre, marrón, escarlata y blanco respectivamente.
Nuevamente, la presencia de 4 clases fenotípicas expresadas en dieciseisavos nos alerta sobre la presencia
de dos loci controlando este carácter. De hecho, lo que sucede es que el locus brown controla la producción
de un pigmento de color rojo brillante llamado drosopterina, mientras que el locus scarlet controla la
producción de otro pigmento de color marrón llamado xantomatina. En situaciones normales, el color
silvestre es el resultado de la mezcla de ambos pigmentos. En cambio, mutaciones en el locus brown hacen
que no se produzca drosopterina y el único pigmento del ojo sea la xantomatina (de ahí el color marrón del
ojo). Las mutaciones en el locus scarlet hacen que no se produzca xantomatina, siendo el color del ojo rojo
escarlata por la presencia de drosopterina. Los dobles mutantes recesivos (1/16) del total de la F2, carecen
de ambos pigmentos y por tanto tienen ojos de color blanco.
El otro efecto de la interacción génica es la distorsión de las proporciones mendelianas esperadas al
analizar un carácter. Dicha distorsión puede ser debida a la presencia de dos genes que controlan dicho
carácter, de modo que uno de los genes enmascara la expresión del otro. Este fenómeno se conoce
con el nombre de epistasia y puede ser de distintos tipos, como veremos a continuación. Al gen que
modifica la expresión del otro se le denomina gen epistático, y al gen cuya expresión es modificada se le
denomina gen hipostático. Un buen ejemplo para entender la epistasia, utilizando los grupos sanguíneos
humanos, es el llamado fenotipo Bombay. Como se recordará, los isoantígenos A y B resultan de la
adición de N-acetil-galactosamina ó de galactosa, respectivamente, a la sustancia H. Por tanto, sólo los
individuos que tienen sustancia H en la membrana de los eritrocitos pueden expresar antígenos A ó B. La
102
GENÉTICA HUMANA
producción de sustancia H (la adición de la última fucosa a la cadena glicosídica) está controlada por otro
locus distinto que presenta un alelo dominante H (produce sustancia H completa) y otro alelo recesivo h (no
la produce). Por tanto, los individuos homocigotos hh no producirán sustancia H y no podrán
expresar ningún isoantígeno aunque tengan alelos I A ó IB para el locus del sistema ABO. Este
fenómeno se encontró por primera vez en una mujer del grupo O hija de padres A y AB, lo cual es imposible
según la herencia del sistema ABO. Esta mujer, casada con un individuo del grupo A (genotipos posibles Iai
ó IAIA) tuvo descendencia del grupo A, B y AB, lo cual también es impsible si ella fuese realmente del grupo
O (genotipo ii). La explicación es que la mujer en realidad tenía genotipo IBi y por tanto debería ser del
grupo B, pero como es homocigota para el alelo recesivo h y no produce sustancia H su fenotipo es del
grupo O. Podemos imaginar un cruce entre individuos dobles heterocigotos para el grupo ABO y para la
sustancia H, del tipo IAIB/Hh X IAIB/Hh. Según el locus ABO, la descendencia debería ser ¼ del grupo A,
¼ del grupo B y ½ del grupo AB. Sin embargo, al tener en cuenta el locus H vemos que ¼ de cada una de
esas categorías serán homocigotos hh (sin sustancia H) y por tanto del grupo O. Al considerar ambos loci,
las proporciones fenotípicas serán 3/16 del grupo A, 6/16 del grupo AB, 3/16 del grupo B y 4/16 del
grupo O, lo cual se desvía de las proporciones esperadas 9:3:3:1. Como vemos, la presencia de un gen
epistático (el que controla la producción de sustancia H) enmascara la expresión del locus ABO (que en este
ejemplo es el gen hipostático) porque ambos genes están implicados en procesos bioquímicos que
interaccionan en un mismo carácter fenotípico. Como las proporciones fenotípicos se expresan en
dieciseisavos, esto nos alertaría inmediatamente sobre la presencia de dos genes interactuando de modo
epistático aunque no supiésemos nada de la existencia de la sustancia H.
La Figura 9.4 muestra un ejemplo del fenotipo Bombay.
En general, la epistasia puede ser recesiva o dominante, según el gen epistático deba estar en
homocigosis o no, respectivamente, para enmascarar la expresión del gen hipostático. A su vez, la epistasia
puede ser simple (uno de los genes es epistático sobre el otro) ó doble (ambos loci son epistásicos el uno
sobre el otro). Veamos algunos ejemplos de los tipos de epistasia más comunes:
Epistasia simple recesiva: Ya vimos que el color del pelaje de ratones está controlado por el gen
agutí, con un alelo A dominante sobre a, de forma que los ratones A- (AA ó Aa) son de fenotipo
agutí y los ratones aa tienen pelaje negro (carecen de las pequeñas bandas amarillas). Existe otro
gen que controla la presencia o no de pigmentación, con alelo dominante C (pigmentación) y un
alelo recesivo Ca que impide cualquier tipo de pigmentación. Los ratones de genotipo homocigoto
recesivo CaCa son, por tanto, albinos, mientras que los ratones C- (CC ó CCa) son del color
especificado por el locus agutí. La F1 de un doble homocigoto dominante CC/AA (agutí) con un
doble homocigoto recesivo aa/CaCa (albino) son todos heterocigotos dobles de pelaje agutí
(genotipo Aa/CCa). La F2 resultante de cruzar ratones de la F1 muestra una proporción 9:4:3
(agutí:albino:negro) por epistasia de C sobre A. En este caso, hablamos de epistasia recesiva
porque el alelo Ca es recesivo (sólo CaCa modifica el fenotipo determinado por A). El ejemplo
anterior del fenotipo Bombay es también una epistasia de este tipo, pero al ser codominantes los
grupos sanguíneos los 9/16 se descomponen en 6/16 y 3/16 (de ahí las proporciones 3:6:4:3 que
veíamos). La epistasia simple recesiva es muy común entre genes que actúan a distintos pasos
de una misma vía metabólica, y por eso es frecuente en enfermedades del metabolismo. Por
ejemplo, cuando la producción de un pigmento se lleva a cabo en dos pasos metabólicos, de modo
que el producto de la primera reacción es el sustrato de la segunda reacción, las mutaciones que
afectan al enzima responsable de la primera reacción serán epistáticas sobre el gen que controla el
segundo paso.
CAPÍTULO 9: MODIFICACIONES DE LAS PROPORCIONES MENDELIANAS
103
Epistasia simple dominante: en este caso el alelo del gen epistático es dominante, y basta con
una sola copia para que enmascare el efecto del gen hipostático. Un ejemplo típico es el color de
la calabaza común, en el que intervienen un gen que controla el primer paso metabólico en la
producción de un pigmento. El alelo normal (w) permite la reacción química, pero es recesivo
frente al alelo W que impide dicha reacción. El producto de este primer paso es el sustrato de una
segunda reacción controlada por otro gen (con alelos Y e y) que da lugar al color final de la
calabaza. Las plantas con genotipo ww para el primer gen (es decir, se lleva a cabo el primer paso
de la vía) pueden ser amarillas (genotipos YY ó Yy para el segundo gen) ó verdes (genotipo yy). En
cambio, basta la presencia de un alelo W en el primer locus para que todas las plantas sean
blancas, porque no se completa la primera reacción y no hay pigmentación. En este tipo de
espistasia, la F2 resultante del cruce de dobles heterocigotos muestra proporciones fenotípicas
12:3:1, con 12/16 del fenotipo determinado por el alelo dominante del gen epistático.
Epistasia doble recesiva: este tipo de epistasia fue observada por primera vez Bateson y Punnett
al estudiar el color de las flores de Lathyrus odoratus (guisante oloroso). Vieron que al cruzar dos
flores blancas todas las plantas de la F1 eran púrpuras y en la F2 aparecía una proporción 9:7 de
púrpuras:blancas. Las proporciones en dieciseisavos confirman la presencia de dos loci P y Q que
controlan este carácter. La proporción 9:7 se puede explicar si consideramos que ambos genes
tienen un alelo dominante (P ó Q) y otro recesivo (p ó q) y actúan sobre dos pasos sucesivos en la
vía metabólica que genera el pigmento de las flores. Si el pigmento que da el color púrpura sólo se
produce cuando están presentes al menos un alelo dominante de cada uno de los genes
implicados, la descendencia de un cruce del tipo PPqq x ppQQ (en el que ambas plantas tienen
flores blancas), será del 100% de dobles heterocigotos PpQq en la F1 (todas con flores púrpuras,
pues tienen un alelo dominante de cada par génico). El cruce de estas plantas dará en la F2 9/16
de plantas con genotipo homocigoto recesivo para alguno de los dos genes (blancas); el resto
serán púrpuras por tener genotipos con un alelo dominante para ambos genes. Se denomina doble
recesiva porque la presencia de cualquiera de los dos homocigotos recesivos para uno de los
genes es epistático sobre el otro gen.
Otros tipos de espistasia. Se conocen muchos otros ejemplos de epistasia en las que las
relaciones entre el gen epistático y el hipostático pueden ser distintas. Por ejemplo, cuando un
fenotipo requiere la presencia de al menos un alelo dominante para cualquiera de los dos loci que
controlan un carácter, el fenotipo alternativo aparecerá únicamente en individuos dobles
homocigotos, y las proporciones obtenidas en la F2 de un cruce entre dobles heterocigotos serán
15:1. Este tipo de epistasia se denomina doble dominante porque los dos alelos epistáticos son
dominantes de modo recíproco, y es típica de genes que se han originado por duplicación a partir
de un gen ancestral y controlan un mismo carácter fenotípico. Otra situación distinta es la que
origina epistasia doble dominante/recesiva, debida a la supresión dominante de un gen sobre
el efecto del otro y que produce proporciones fenotípicas 13:3.
El video de la Figura 9.5 ilustra el concepto de epistasia.
Como conclusión a este capítulo, conviene recordar que todas las desviaciones que hemos visto de las
proporciones fenotípicas esperadas según los principios mendelianos no invalidan las conclusiones de
Mendel, sino que en el fondo las confirman. Sin embargo, estas excepciones sirven para recordarnos que
los caracteres hereditarios que están controlados por un solo locus con dos alelos son, en
realidad, una minoría. Curiosamente, los 7 caracteres descritos por Mendel en su artículo original
cumplían estos requisitos, pero la mayor parte de los rasgos genéticos son más complejosy están sometidos
104
GENÉTICA HUMANA
a alguno de los fenómenos descritos (codominancia, alelismo múltiple, interacción, etc). Como veremos más
adelante, los rasgos de mayor importancia en Genética Humana están controlados por dos ó más
genes, y generan muchas veces variación fenotípica contínua. Aunque las leyes de Mendel son todavía
aplicables incluso en estos casos, la interpretación se complica tremendamente al aumentar el número de
loci, al aparecer alelos mutantes y al añadirse los efectos de la interacción entre los genes y el ambiente.
CAPÍTULO 10: GENÉTICA DE LOS CARACTERES CUANTITATIVOS
105
Capítulo 10. Genética de los caracteres cuantitativos: experimentos de
Johannsen, Nilsson-Ehle y East. Modelo poligenes-ambiente y enfermedades
multifactoriales. Heredabilidad en sentido amplio y en sentido restringido.
Cálculo de la heredabilidad en Genética humana.
Genética de los caracteres cuantitativos
Hemos visto que Mendel se centró en el estudio de caracteres cualitativos (es decir, caracteres que sólo
aparecen en dos posibles formas alternativas), que generan un tipo de variación llamada variación
discontinua. Sin duda alguna, la gran intuición de Mendel fue que sólo el estudio de la variación
discontinua le permitiría desentrañar las leyes de la herencia y los factores implicados en la misma. Sus
experiencias le habían mostrado que este tipo de caracteres eran los únicos que reaparecían en la F2
después de haber desaparecido en la F1. Por el contrario, los caracteres cuantitativos o continuos (que
admiten muchos valores posibles y en los que los valores individuales se agrupan en torno a una media,
como el caso la altura de una planta, el peso de los frutos, etc) no mostraban este comportamiento. La
importancia de esta decisión fue extraordinaria, sobre todo teniendo en cuenta que la teoría prevalente en
ese momento era contraria a esta manera de pensar. Por ejemplo, Darwin daba preferencia a los
caracteres cuantitativos respecto a los cualitativos (que consideraba de menor importancia) y aceptaba una
teoría llamada ―pangénesis‖. Según esta teoría, la herencia sería el resultado de la mezcla de ―gémulas‖,
unas partículas somáticas que de algún modo llegarían a la descendencia y determinarían que los caracteres
de la descendencia fuesen intermedios a lo encontrado en ambos progenitores.
Esto curioso que Darwin no se fijase en la importancia de la variación discontinua, porque de hecho un
modelo de herencia basado en caracteres cualitativos favorecía más su teoría evolutiva. Probablemente fue
muy importante la influencia del pensamiento de Francis Galton, que estaba convencido de que los
caracteres cuantitativos constituyen la base de la variación entre individuos y no entendía que éstos
pudiesen ser explicados por medio de variaciones discontinuas. De hecho, Galton había estudiado el tamaño
de la planta del guisante y había encontrado evidencias de variación continua (una F1 con altura intermedia
a la de ambos progenitores). Estos experimentos tenían sus antecedentes en Kölreuter, un botánico que
en 1766 había hecho numerosos cruces en plantas y había encontrado caracteres (como la altura de la
planta Nicotiana, por ejemplo) que mostraban variación continua. No es de extrañar, pues, que se generase
una fuerte controversia a principios del siglo XX entre los partidarios del mendelismo y los biometricistas
(discípulos de Galton, defensores de la variación continua). Por desgracia, la influencia de Galton y la
aplicación de las ideas de los biometricistas a sujetos humanos ocasionaron una de las páginas más oscuras
de la Genética a principios del siglo XX, ya que cristalizaron en el movimiento eugenésico, que floreció en
los Estados Unidos de la mano de Charles Davenport en el laboratorio de Cold Spring Harbor. Con la idea de
mejorar la raza humana mediante apareamientos selectivos, los eugenistas pretendían eliminar de la
sociedad rasgos "negativos" como la criminalidad, el analfabetismo o la prostitución; su presión fue
suficiente para que el gobierno de los Estados Unidos aprobase ―entre 1910 y 1939― legislación
eugenésica en tres áreas: restricción de la inmigración europea; impedir matrimonios entre individuos de
razas distintas; esterilización de los individuos "genéticamente infradotados". El auge del movimiento nazi
con la aplicación de la "solución final" contribuyó al descrédito del movimiento eugenista americano,
llevando al cierre de su principal laboratorio en 1939. Por desgracia, muchas de las leyes aprobadas
siguieron vigentes durante años, y la esterilización de los deficientes mentales continuó en Estados Unidos
hasta los años 1970; para entonces, unos 60.000 norteamericanos habían sido esterilizados sin
consentimiento propio o de los responsables legales.
106
GENÉTICA HUMANA
En la Figura 10.1 se puede encontrar un enlace a los archivos del movimiento
eugenésico americano.
Las disputas en torno a las bases genéticas de la variación continua se resolvieron por los experimentos de
varios genetistas en las primeras décadas del siglo XX. El primero en abordar la utilización de metodología
estadística en el estudio de la variación continua fue el botánico danés Johannsen, que tuvo una gran
importancia en la Genética (a él se deben los términos gen, genotipo y fenotipo, por ejemplo). En sus
trabajos, que se extendieron de 1903 a 1909, intentó estudiar el efecto de la herencia y del ambiente sobre
la variación, siguiendo la idea inicial de Galton de “nature versus nurture”. Johannsen estudió sobre todo el
peso de las alubias de Phaseolus vulgaris en una cepa comercial y detectó la presencia de variación
continua, con alubias de distintos pesos que se agrupaban en torno a un valor medio. Autopolinizando
durante varias generaciones, consiguió líneas puras para minimizar el efecto genético y estudió la F1.
A pesar de tratarse de líneas puras, los pesos de las semillas de cada una de estas líneas siguen una
distribución normal, con valores ligeramente distintos. Al plantar semillas de pesos diferentes (pero todas
procedentes de una misma línea pura y por tanto genéticamente iguales), encontró que el peso medio de la
progenie de las distintas semillas era idéntico (no significativamente distinto) y coincidía con la media de
pesos de la línea pura original. Por ejemplo, en su línea pura número 13 las semillas se distribuían en torno
a un peso medio de 0,45g, pero había semillas de pesos mayores y menores a esta media, como es
lógico. Al plantar algunas de estas semillas y estudiar el peso de la alubia en la progenie, encontró que una
semilla de 0,28g producía alubias con un peso medio de 0,45g, una semilla de 0,48g producía alubias con
un peso medio de 0,43g, y una semilla de 0,58g producía plantas que daban alubias con un peso medio de
0,46g. Esto demostraba la presencia de factores genéticos (responsables de que el peso medio de las
alubias sea igual a la media del peso de las semillas originales, como es de esperar en una línea pura); pero
además también demostraba la presencia de otros factores (presumiblemente ambientales) que hacen
que las semillas no sean todas idénticas, sino que el peso varíe en torno a un valor medio. Además, cada
línea pura tenía un peso medio de alubia característico, con una media que se repetía en la F1 aunque se
plantasen semillas con pesos dispares. Fue, por tanto, Johannsen el primero en sugerir experimentalmente
que la variación continua podría explicarse por una combinación de factores genéticos y ambientales.
La Figura 10.2 explica los experimentos de Johannsen.
De todas formas, esto no demostraba que los factores genéticos implicados en la herencia de
caracteres continuos fuesen de tipo mendeliano. Algunos biometricistas, sobre todo el matemático
Pearson, seguían negando la posibilidad de que los factores mendelianos pudiesen explicar la variación
continua. Sin embargo, Bateson y Yule elaboraron en 1906 una argumentación matemática para explicar
que la presencia de varios factores mendelianos con dominancia incompleta puede originar la variación
continua de los caracteres cuantitativos. De todas formas, la demostración experimental de esto no llegaría
hasta los estudios de Herman Nilsson-Ehle en 1909. Nilsson-Ehle tenía varias líneas puras de trigo, en
las que estudió caracteres cuantitativos con variación continua, tales como el color de las espigas. En sus
líneas, las espigas tenían colores que iban desde el blanco al rojo oscuro pasando por estadíos intermedios
(rojo claro, rojo). Cruzó en primer lugar una planta de espiga blanca con una de color rojo claro y obtuvo F1
en la que todas las espigas eran de color intermedio (―rosa‖); en la F2 obtuvo tres clases fenotípicas con
proporciones 1:2:1, siendo ¼ de plantas con espigas blancas, ½ espigas rosas y ¼ espigas de color rojo
claro. En principio, como ya hemos visto al hablar del mendelismo, estas proporciones pueden explicarse
perfectamente mediante un modelo mendeliano de dominancia incompleta del rojo sobre el blanco. Sin
embargo, cuando cruzó plantas de espigas blancas con plantas de espigas rojas (más oscuras que el ―rojo
CAPÍTULO 10: GENÉTICA DE LOS CARACTERES CUANTITATIVOS
107
claro‖) obtuvo 5 clases de plantas: 1/16 rojas, 4/16 intermedio entre rojo y rojo claro, 6/16 rojo claro, 4/16
rosa y 1/16 blancas. Estas proporciones (1:4:6:4:1) sugieren un modelo de dos pares génicos con
epistasia doble dominante (15:1) y dominancia incompleta (todos los rojos suman 15). De hecho, el
cruce de plantas de espiga blanca con plantas de color rojo oscuro dio lugar a 7 clases fenotípicas, con
proporciones expresadas en sesentaycuatroavos: 1/64 de plantas con espigas blancas y el resto de las
plantas con espigas de 6 clases de rojos (rojo claro, rojo y rojo oscuro más las categorías intermedias entre
cada una de estas tres). Estas proporciones y el número de clases fenotípicas sugieren un modelo de
epistasis triple dominante: tres loci con dominancia incompleta (y efecto aditivo de dosis), y el resultado
fenotípico es la distribución del color de la espiga como una variable continua. Esta fue la primera
demostración experimental de que un carácter controlado por varios genes puede mostrar variación
continua aunque cada uno de los genes se herede de forma mendeliana, si cada uno de ellos tiene un
pequeño efecto aditivo sobre el carácter fenotípico.
Faltaba por demostrar que la variación debida a efectos ambientales puede ser responsable de las
diferencias observadas entre individuos con genotipos idénticos. La demostración formal no llegaría hasta
los estudios de Edward East en 1916, nuevamente con plantas. Estudiando la longitud de la corola en dos
líneas puras de Nicotiana longiflora, vio que la F1 mostraba un tamaño intermedio a los fenotipos
parentales, con arreglo a una distribución normal. En la F2, el valor medio se mantenía pero la varianza se
ampliaba notablemente, aunque sin llegar a los valores extremos que se veían en las clases parentales. Esto
se explica porque las plantas de la F1 son heterocigotos para todos los genes que intervienen en el tamaño
de la flor, de modo que las plantas de la F2 tendrán varias combinaciones distintas de genotipos y de ahí la
mayor dispersión de los resultados. De hecho, East observó que la F3 resultante de cruces seleccionados
(entre plantas de la F2 que tenían el mismo tamaño de corola) reproducía exactamente el tamaño de las
plantas cruzadas, con una dispersión de tamaños debida a factores ambientales. Por ejemplo, cruzó
inicialmente dos variedades puras de 40 mm y 93 mm de media, respectivamente. En la F1, el tamaño
medio de corola fue de 64 mm (con valores entre 61 y 67 mm). En la F2 resultante de cruzar dos plantas de
la F1 se mantuvo el tamaño medio de corola (67 mm) pero aumentó la dispersión (valores entre 52 y 82
mm), indicando la presencia de nuevos genotipos que están originando tamaños distintos. Al cruzar dos
plantas de esta F2 que tenían corolas del mismo tamaño (58mm), vio que la descendencia tenía un tamaño
medio cercano a 58 mm; al cruzar dos plantas de 70 mm obtuvo una descendencia con tamaño medio
cercano 70 mm, etc. Es decir, comprobó que efectivamente hay factores genéticos responsables de los
distintos tamaños medios en los distintos cruces, al tiemp que los factores ambientales son los responsables
de la dispersión de valores que se observa en las plantas que tienen un mismo genotipo. Con estos
experimentos, East pudo demostrar el efecto simultáneo de la variación genética y la variación ambiental,
cuyos efectos combinados contribuyen a crear variación continua.
El video de la Figura 10.3 ilustra los experimentos de H. Nilsson-Ehle y de E.
East.
108
GENÉTICA HUMANA
Línea pura A
Longitud corola (x):
Línea pura B
40 mm
94 mm
F1
61
64
67
F2
52
67
82
F3
54
72
79
Por tanto, un par de décadas después del re-descubrimiento de Mendel se había llegado a la explicación de
cómo los principios mendelianos, que afectan a caracteres discretos (variación discontinua) pueden dar
lugar a variación continua de caracteres cuantitativos: cuando un carácter fenotípico está controlado por dos
ó más genes y los efectos de cada gen sobre ese carácter se suman. Esto se conoce como herencia
poligénica.
En estos casos, es de gran interés determinar el número de loci que intervienen. Lo más
habitual, es determinar el porcentaje de individuos de la F2 que tienen valores en torno a
cualquiera de los dos parentales. Así, para un solo gen esto sería ¼, para dos loci sería 1/16, para 3 loci
sería 1/64, etc. Se puede ver que esto es igual a (¼)n, donde n es el número de loci distintos. Por ejemplo,
ya vimos que el experimento de Nilsson-Ehle sugería 3 loci (1/64=[¼]3), mientras que en el experimento de
East ninguna de las 444 flores de la F2 tenía una corola de tamaño similar a la media de los progenitores,
por lo que el número de poligenes debe ser al menos superior a 4 ([¼]4=1/256).
Modelo poligenes-ambiente y enfermedades multifactoriales.
Hemos visto cómo se llegó a explicar la variación continua por la acción de varios genes sobre un mismo
carácter (herencia poligénica), y cómo la existencia de variación ambiental añadida hace que las diferencias
entre las clases fenotípicas se suavicen y la variación sea más gradual. A la combinación de herencia
poligénica con la variación introducida por factores ambientales se le llama herencia multifactorial, para
indicar la multiplicidad de factores que intervienen en la expresión del carácter fenotípico. En el campo de la
Genética Humana la herencia multifactorial es de gran importancia, porque la mayoría de los fenotipos y
muchas enfermedades, llamadas también enfermedades complejas, siguen este tipo de herencia. De
hecho, las enfermedades multifactoriales o complejas son las más importantes desde el punto de vista
epidemiológico, por lo que actualmente son objeto de investigación con el fin de identificar los factores
genéticos y ambientales implicados. Fruto del trabajo de estos últimos años, se ha detectado un alto
CAPÍTULO 10: GENÉTICA DE LOS CARACTERES CUANTITATIVOS
109
número de loci relacionados con el desarrollo de enfermedades como cáncer, diabetes, hipertensión,
esquizofrenia, enfermedades neuro-degenerativas, etc.
Algunas
de
las
enfermedades
multifactoriales
se
manifiestan
en
rasgos
fenotípicos
claramente
cuantitativos, como por ejemplo la presión arterial o los niveles de glucosa en sangre. Como hemos visto
en el apartado anterior, se puede demostrar que los rasgos cuantitativos que se encuentran en la población
mostrando una distribución normal pueden explicarse por la interacción varios genes (cada uno de los
cuales se heredaría de forma mendeliana). Por ejemplo, podemos imaginar un modelo sencillo de dos loci
que regulan la presión sanguínea, de forma que cada uno de ellos se hereda de modo mendeliano y provoca
un aumento de 20 mm de presión arterial cuando se encuentra en estado homocigoto para el alelo
dominante (mayúscula), 10 mm en los heterocigotos o no provoca ningún aumento en los homocigotos para
el alelo recesivo (minúscula). Representando estos valores en un gráfico de barras, se puede comprobar que
1/16 de la población tendrá un genotipo AA/BB (aumento de 40 mm de presión arterial), 4/16 de la
población tendrá genotipos que provocan un aumento de 30 mm, 6/16 tendrá genotipos con 20 mm, 4/16
con 10 mm y 1/16 serán genotipo aa/bb (0 mm de aumento). Como se ve, estos valores se aproximan a
una distribución normal. Lógicamente, la presencia de más loci hace que aparezcan más categorías (más
barras) y que la curva de distribución se "suavice" cada vez más. La variación debida a factores ambientales
(ingesta de sal, ejercicio físico, etc.) sobreañadidos a los factores genéticos producirá la curva gaussiana
típica de muchos de estos rasgos cuantitativos.
La Figura 10.4 incluye un video que ilustra la importancia de la herencia
poligénica en las enfermedades complejas.
Hay otro tipo de enfermedades que no tienen una herencia mendeliana reconocible, sino que se ajustan al
modelo de enfermedades multifactoriales, y sin embargo no se presentan como rasgos cuantitativos típicos,
sino que originan fenotipos cualitativos. Por ejemplo, algunas malformaciones frecuentes, como el labio
leporino, forman parte de esta categoría. Una explicación bastante aceptada de estos rasgos propone que
es la predisposición a manifestar la enfermedad o malformación lo que tiene un origen multifactorial
(mezcla de factores genéticos mendelianos y de factores ambientales). Por tanto, aunque esta
predisposición sí que se ajusta a una distribución normal en la población, la enfermedad sólo se desarrolla
cuando se supera un cierto umbral de predisposición. En estos casos se presupone que los familiares
directos de estos enfermos comparten con ellos algunos factores genéticos y/o ambientales, por lo que
tendrán mayor predisposición que la población general a sufrir la misma enfermedad. Esto explica que el
riesgo de recurrencia de la enfermedad (probabilidad de que haya otro miembro afectado en una misma
familia) sea mayor en los familiares de un enfermo que en la población general. Ejemplos clásicos de este
tipo de enfermedades son la estenosis pilórica, que además muestra diferencias en cuanto al sexo (hay
más varones que mujeres afectados por la enfermedad, lo que sugiere que el umbral de predisposición es
más bajo en varones), o el paladar hendido (fisura del paladar/labio leporino). Para calcular el riesgo
de recurrencia en estas enfermedades (la aparición de otro caso en una familia en la que ya hay un
enfermo) se utilizan siempre riesgos empíricos, basados en la observación de los datos de prevalencia de la
enfermedad en la población, datos que pueden variar considerablemente de una población a otra. Una
propiedad a tener en cuenta es que en estos casos el riesgo es variable, al contrario de lo que ocurre en
enfermedades con herencia mendeliana simple, en las que el riesgo es fijo. Así, cuando hay varios
miembros de una misma familia afectados por una enfermedad multifactorial, el riesgo de que aparezca un
nuevo caso en la misma familia es mayor que si hay un solo miembro enfermo; igualmente, cuando el
individuo enfermo es del sexo que se afecta con menor frecuencia, el riesgo también aumenta. Esto se
110
GENÉTICA HUMANA
explica porque, en estos casos, se supone que en esa familia concreta concurren más factores genéticos y/o
ambientales y su curva de predisposición está desplazada a la derecha.
El video de la Figura 10.5 ilustra la herencia poligénica de algunos rasgos
cualitativos.
Heredabilidad en sentido amplio y en sentido restringido. Cálculo de la
heredabilidad en Genética humana
La determinación de la influencia de factores genéticos en caracteres cuantitativos tiene consecuencias
importantísimas en la explotación de especies vegetales o animales (tamaños, pesos, producción de leche,
de huevos, de uvas, etc). La aplicación más importante en Genética Humana es la posibilidad de determinar
la importancia relativa de los factores genéticos y de los factores ambientales en las enfermedades
multifactoriales, por las implicaciones que esto tiene para la prevención y tratamiento de estas dolencias.
Una forma de resolver este problema es estimar la parte de la variación total de una variable que es debida
a factores ambientales, para de ahí deducir la variación atribuíble a factores genéticos. En el caso de los
caracteres cuantitativos, esto es relativamente sencillo porque pueden estudiarse con métodos
estadísticos, analizando los parámetros que definen las variables poblacionales y sus relaciones (media,
varianza, covarianza, regresión). De todos éstos, la varianza es el parámetro que mejor define la dispersión
de una variable continua en torno a la media y por tanto podemos estimar la variación fenotípica calculando
la varianza total de ese rasgo en la población. Esta varianza fenotípica total (VP) será la suma de la
varianza debida a factores genéticos (VG), más la varianza debida a factores ambientales (VE), más la
varianza debida a las interacciones entre genes y ambiente (VGE). A su vez, la variación genética viene
determinada por tres componentes: la varianza debida a efectos aditivos (VA), la varianza debida a efectos
de dominancia (VD) y la varianza debida a efectos de interacción génica (VI). Usando esta metodología
podemos estimar la heredabilidad (H2) de un rasgo fenotípico cuantitativo. En sentido amplio, la
heredabilidad indica qué proporción de la variación fenotípica total VP de una variable continua es
atribuible a factores genéticos. Siguiendo las definiciones precedentes, esta heredabilidad en sentido amplio
se calcula con arreglo a la fórmula:
H2 = VG/VP
siendo VP=VG+VE+VGE (aunque VGE suele despreciarse). Para calcular H2 necesitamos usar especies
puras (genotipos iguales), que nos permiten calcular la varianza ambiental VE variando las condiciones
ambientales de forma que toda la variación sea debida al ambiente. Además de esta dificultad de tipo
práctico, éste concepto de heredabilidad en sentido amplio es poco útil porque no nos indica exactamente el
porcentaje de la variación que es debida a factores genéticos aditivos, que son los más importantes. Por
eso, otra forma más habitual de calcular la heredabilidad (heredabilidad en sentido estricto, h2) se basa
en calcular específicamente la parte de la varianza genética que es debida a factores aditivos (VA), respecto
a la debida a diferencias en la dominancia (VD) y a efectos de interacción (VI). Habitualmente, esta última
es despreciable y se considera que la varianza genotípica total es VG=VA+VD. En especies que lo permiten,
el cálculo se realiza mediante experimentos de selección artificial, para evaluar el posible beneficio derivado
de tal selección. Por ejemplo, en una población en la que una variable continua tiene una media M, se toma
una submuestra de individuos con una media significativamente diferente (esa diferencia se
denomina “diferencial de selección”, D), y se determina la media en la progenie de esos individuos
seleccionados. La diferencia de la media en la descendencia con la media poblacional inicial se denomina
“ganancia” G (o “respuesta” R). La heredabilidad en sentido estricto h2 se calcula como G/D, e incluye
CAPÍTULO 10: GENÉTICA DE LOS CARACTERES CUANTITATIVOS
111
únicamente los factores genéticos aditivos. Se puede comprobar que con la selección prolongada, la
heredabilidad va disminuyendo progresivamente, al haber cada vez menos factores genéticos aditivos
que puedan seguir modificando el fenotipo.
En la Figura 10.6 se incluye un video y varias ilustraciones que muestran el
concepto de heredabilidad y su cuantificación en genética humana.
Lógicamente, este tipo de aproximación experimental no es posible en el caso de la Genética Humana. Sin
embargo, la enorme importancia socio-sanitaria de las enfermedades multifactoriales hace que sea de gran
utilidad determinar cuánto influye el ambiente y cuánto la herencia en la génesis de esas enfermedades.
Para cuantificar la magnitud del componente genético de una enfermedad, concepto análogo a la
heredabilidad, se utilizan actualmente dos procedimientos:

Cálculo del riesgo relativo. Si calculamos el riesgo relativo de padecer la enfermedad que tienen
distintos grupos de personas relacionadas genéticamente, como por ejemplo los hermanos de
individuos enfermos, y vemos que el riesgo de padecer la enfermedad en ese grupo es
significativamente mayor que en la población general, podemos deducir que existen factores genéticos
que determinan la aparición de esta enfermedad. El riesgo relativo se calcula como R, en la que el
subíndice R indica el grado de parentesco del grupo que estamos estudiando con los individuos
enfermos. Por ejemplo o (la "O" viene del inglés offspring, que significa "descendencia") indicaría la
prevalencia de la enfermedad en los hijos e hijas de individuos enfermos; s (la "S" viene del inglés
sibs, que significa "hermanos y hermanas") sería la prevalencia de la enfermedad en los hermanos y
hermanas de individuos enfermos, etc. Calculando el cociente de cada uno de estos riesgos entre el
riesgo poblacional general podemos calcular el riesgo relativo. Un concepto similar al de riesgo relativo
es el de odds ratio (cociente del producto cruzado), que se calcula de otro modo pero nos da
prácticamente la misma información. La interpretación de estos cálculos es la misma: si los parientes
de los individuos enfermos tienen un riesgo significativamente aumentado de padecer la enfermedad
frente al riesgo de la población general, se puede suponer que la enfermedad tiene un componente
genético importante.
Cálculo de las tasas de concordancia en parejas de gemelos. Si una enfermedad tiene un
componente genético significativo, aparecerá con mayor frecuencia en individuos con mayor parecido
genético que en individuos genéticamente más distantes. Un modo elegante de estudiar esto en la
práctica es comparar los gemelos dicigóticos (cuyo grado de identidad genética es igual al de una
pareja cualquiera de hermanos) y los gemelos monocigóticos, ya que éstos son prácticamente
idénticos desde el punto de vista genético. Este tipo de estudios, que han dado abundantes frutos en
Genética Humana, se basan en el cálculo de las tasas de concordancia, es decir, el porcentaje de
parejas de gemelos que concuerdan para un mismo rasgo fenotípico (una enfermedad, en este caso),
de manera que simplemente calculamos el porcentaje de parejas de gemelos en las que ambos
padecen la misma enfermedad. Estas parejas serían "concordantes" para esa enfermedad, mientras que
las parejas en las que un gemelo está enfermo pero el otro está sano serían parejas "discordantes".
Pues bien, si una enfermedad tiene un fuerte componente genético, la tasa de concordancia en parejas
de gemelos monocigóticos (MC) será claramente más alta que en parejas de gemelos dicigóticos (DC),
pues aquellos comparten mayor número de genes que éstos. Además, este tipo de análisis tiene la
ventaja de que corrige la influencia de los factores ambientales, ya que en la mayoría de los casos
ambos hermanos gemelos —tanto MC como DC— han estado sometidos a las mismas influencias
ambientales. En el caso de rasgos cuantitativos (la presión arterial, por ejemplo) la estimación de la
112
GENÉTICA HUMANA
concordancia puede realizarse mediante el cálculo del coeficiente de correlación intraclase (correlación
de los valores de presión arterial de un hermano con su gemelo respectivo), de forma que un
coeficiente de correlación R = 1 equivale al 100% de concordancia. La comparación de concordancias
entre gemelos MC y DC se hace del mismo modo que se comparan dos coeficientes de correlación. En el
caso de rasgos cualitativos (presencia o ausencia de una enfermedad) simplemente calculamos el
porcentaje de parejas de gemelos que concuerdan para esa enfermedad y así obtenemos la tasa de
concordancia (porcentaje de parejas concordantes respecto al total de parejas). Con estos datos
podemos estimar la heredabilidad (h), mediante la fórmula h = 2 (Cmc - Cdc), en la que C es la
tasa de concordancia (Cmc en monocigóticos y Cdc en dicigóticos). Los valores de heredabilidad
calculados de este modo tienen un rango teórico entre +1.5 (que correspondería a un rasgo
monogénico autosómico recesivo, con Cmc = 1 y Cdc = 0.25) y 0 (Cmc = Cdc, en el caso de un rasgo
influído sólo por el ambiente). En general, se considera que las enfermedades con una heredabilidad en
torno a 1 (o superior) tienen un componente genético importante.
h = 2 x (CMC − CDC)
Tasa de concordancia
Gemelos MC Gemelos DC Heredabilidad
Enf. Bipolar
0,79
0,24
Autismo
0,92
0
>1
>1
Sarampión
0,95
0,87
0,16
Diabetes tipo I
0,40
0,04
0,72
Diabetes tipo II
0,50
0,37
0,26
Hipertensión
0,70
0,40
0,60
CAPÍTULO 11: LIGAMIENTO GENÉTICO EN HUMANOS
113
Capítulo 11. Ligamiento genético en humanos.
El concepto de ligamiento: fracción de recombinación y distancia genética.
Informatividad de los marcadores utilizados en estudios de ligamiento. El
cálculo del LOD score. Ligamiento no paramétrico y su utilización en genética
humana.
El concepto de ligamiento genético: fracción de recombinación y distancia
genética
Aunque algunos autores ya habían sugerido la presencia de determinados genes en cromosomas concretos,
no hubo evidencia clara de esto hasta el descubrimiento del ligamiento del locus white de Drosophila al
cromosoma X (como se ha explicado en el Capítulo 8), descubrimiento hecho por Morgan en torno a 1910.
Poco después, Morgan identificó nuevos mutantes, entre ellos otro llamado rudimentary, que también
mostraba ligamiento al cromosoma X. Esto llevó a Morgan a estudiar la segregación simultánea de estos dos
genes: si siempre se heredan juntos, esto sugeriría que están cerca en el mismo cromosoma, ya que no ha
habido recombinación entre ellos. En efecto, según las leyes de la herencia mendeliana dos loci que están
en cromosomas distintos segregarán de manera independiente, es decir, los dos alelos de cada locus se
distribuirán en los gametos de modo aleatorio. En cambio, cuando los dos loci están en el mismo
cromosoma (se dice entonces que son sinténicos), cabe pensar que siempre se heredará la misma
combinación de alelos y un miembro de la descendencia que herede un alelo concreto de uno de los loci
también heredará el alelo del otro locus que estaba en el mismo cromosoma parental. Por el contrario, si se
produce una recombinación (con sobrecruzamiento) en algún punto intermedio entre ambos loci durante la
meiosis, los gametos llevarán combinaciones alélicas que no estaban presentes en ninguno de los
progenitores, es decir, se formen gametos recombinantes. Morgan comprobó que podía darse
recombinación entre el locus white y el locus rudimentary en Drosophila, pero al estudiar otras mutaciones
(especialmente el color amarillo del cuerpo y el color blanco de los ojos) observó que nunca se detectaba
recombinación con otros loci localizados en el mismo cromosoma, y llamó ligamiento a ese fenómeno.
Alfred Sturtevant, un estudiante de Morgan, demostró que la probabilidad de que haya una recombinación
entre dos loci depende de la distancia física que los separa, y por tanto la frecuencia con que aparecen
recombinantes puede utilizarse para deducir la distancia que separa dos genes que están en el mismo
cromosoma; Sturtevant construyó en una noche el primer mapa genético de ligamiento, en el que se
representaba el orden y la distancia de cinco genes localizados en el cromosoma X de Drosophila. Poco
después, Calvin Bridges detectó los primeros casos de ligamiento entre genes localizados en autosomas, y
poco a poco se fueron describiendo distintos grupos de ligamiento. El concepto de ligamiento genético,
por tanto, va intrínsecamente unido al de distancia física entre genes, que es la que origina distintas
proporciones de individuos recombinantes en la descendencia.
Cuando ambos loci están suficientemente alejados (aunque estén en el mismo cromosoma) existe una
probabilidad tan alta de que haya un sobrecruzamiento entre ellos que segregarán de manera similar a una
segregación independiente, produciendo gametos recombinantes en la mitad de la descendencia (50% de
gametos recombinantes y 50% de gametos no-recombinantes). En este sentido, es importante
recordar que el sobrecruzamiento tiene lugar entre dos cromátides, cada una perteneciente a un
cromosoma homólogo; las otras dos cromátides no se recombinan, de ahí que un sobrecruzamiento da lugar
a cuatro gametos de los cuales dos son recombinantes y los otros dos son idénticos a los cromosomas
originales. Sin embargo, a medida que dos loci sinténicos se sitúan más cerca uno del otro, la probabilidad
114
GENÉTICA HUMANA
de que haya un sobrecruzamiento entre ellos es cada vez menor, y por tanto la probabilidad de
formación de gametos recombinantes también va decreciendo. Puede llegarse a un punto en que los
loci estén tan juntos que nunca se dé un sobrecruzamiento entre ellos, de modo que no se originarán
gametos recombinantes y no se encontrarán individuos recombinantes en la descendencia. Por tanto, la
cuantificación del número de eventos de recombinación entre dos loci nos permite estimar la distancia
genética entre ellos: a mayor proximidad, menor probabilidad de recombinación y por tanto el porcentaje de
individuos recombinantes será menor.
La Figura 11.1 ilustra por qué la probabilidad de recombinación entre dos loci
es función de su distancia física.
En Genética Humana, la cuantificación de la frecuencia de recombinación se hace estudiando la segregación
de dos secuencias de ADN en los individuos de una familia, e identificando aquellos individuos cuyo genotipo
sólo pueda explicarse por una recombinación en la meiosis de uno de los progenitores. Las secuencias que
se utilizan en estudios de ligamiento se denominan marcadores genéticos, que son secuencias que se
encuentran en distintas formas (distintos alelos) en la población general, ya que para detectar si ha habido
recombinación debemos ser capaces de distinguir los distintos alelos. Además, los estudios de ligamiento
entre marcadores sirven para establecer mapas de ligamiento en los que estos marcadores están en un
orden determinado, separados por distancias precisas. Por tanto, los marcadores utilizados en estudios de
ligamiento son polimorfismos genéticos, es decir, secuencias que se encuentran en la población en varias
formas posibles. Diferentes individuos de la población pueden tener, por tanto, distintos genotipos
(distintas combinaciones de alelos) para un marcador concreto. Los principales tipos de polimorfismos
genéticos que se utilizan como marcadores en estudios de ligamiento han sido explicados con detalle al
hablar del genoma humano en el Capítulo 4.
Para realizar mapas de ligamiento entre marcadores, es necesario ante todo genotipar cada uno de los
marcadores en todos los miembros de una ó varias familias. Al analizar los genotipos de cada individuo y la
segregación de los diferentes alelos, se pueden identificar los individuos recombinantes, aquellos cuyo
genotipo sólo puede explicarse por una recombinación en uno de sus progenitores. La cantidad de
individuos recombinantes en la descendencia nos permite calcular la fracción de recombinación
(representada por la letra griega ), que se define como el número de individuos recombinantes dividido por
el número total de individuos en la descendencia. Además de estudiar la distancia entre marcadores, en los
estudios de ligamiento que se realizan en Genética Humana es frecuente buscar cuál es la distancia entre un
marcador y el locus responsable de una enfermedad genética. En estos casos, el análisis de ligamiento nos
permitirá calcular la distancia entre el marcador y el gen responsable de una enfermedad.
Utilizando esta metodología se han identificado los genes responsables de muchas enfermedades genéticas,
mediante una estrategia denominada clonaje posicional: al conocer la distancia que separa el locus
responsable de una enfermedad de varios marcadores genéticos concretos, se simplifica enormemente la
tarea de identificar el gen causal.
La Figura 11.2 muestra el modo de calcular la fracción de recombinación
entre el locus responsable de una enfermedad autonómica dominante y un
marcador genético.
CAPÍTULO 11: LIGAMIENTO GENÉTICO EN HUMANOS
1-2
1-4
115
3-4
2-4
1-2
1-4
2-4
2-2
2-4
1-4
 = 1/6 = 0,17 = 17%
DISTANCIA GENÉTICA = 17 cM
La fracción de recombinación, calculada tal y como se ha explicado en la Figura anterior, nos permite
estimar la distancia genética entre dos loci, distancia que se mide en centimorgans (cM): cuando entre
dos loci se detecta una fracción de recombinación = 0,01 (1% de individuos recombinantes), se dice que
ambos loci están a una distancia genética de 1 cM. Esta distancia genética (1 cM) equivale
aproximadamente a 1 Mb (megabase) de distancia física, aunque esta equivalencia varía a lo largo del
genoma y hay funciones matemáticas más exactas para convertir la distancia genética en distancia física.
En cualquier caso, es importante comprender que la fracción de recombinación nunca podrá ser mayor a
0,5 (50%), ya que éste es precisamente el porcentaje de individuos recombinantes que se producen en
ausencia de ligamiento (cuando siempre hay una recombinación, como se ha explicado más arriba) o en el
caso de que ambos loci estén situados en cromosomas distintos.
Informatividad de los marcadores utilizados en estudios de ligamiento
Como acabamos de explicar, para poder realizar estudios de ligamiento es necesario identificar los
individuos recombinantes para determinar la fracción de recombinación. Por desgracia, en ocasiones es
imposible establecer si un individuo de la descendencia es recombinante o no, bien porque el individuo que
transmite la enfermedad es homocigoto para el marcador analizado, o bien porque es heterocigoto idéntico
al otro progenitor; estas situaciones dan lugar a lo que denominamos familias no-informativas o semiinformativas, respectivamente.
La Figura 11.3 muestra algunos ejemplos de falta de informatividad de un
marcador.
Lo posibilidad de perder informatividad subraya la importancia de usar marcadores para los que todos los
árboles analizados sean informativos, lo cual dependerá directamente de la informatividad de los
marcadores utilizados. La informatividad de un marcador refleja la probabilidad de encontrar individuos
heterocigotos para ese marcador en la población general, y es función del número de alelos posibles para
el marcador y de las frecuencias relativas de cada alelo en la población. Teniendo en cuenta las
116
GENÉTICA HUMANA
características de cada tipo de marcador, es posible calcular dos parámetros que definen la informatividad
de un marcador genético: el índice de heterocigosidad y el PIC (contenido de información de un
polimorfismo, Polymorphism Information Content en inglés). Estos parámetros se calculan mediante la
siguiente fórmula:
n
n-1
n
PIC = 1 -  pi -  2pi2 pj2
2
i=1
heterocigosidad

El primer miembro (1 -  pi
2
i=1
j=i+1
% heterocigotos idénticos
) es la heterocigosidad, es decir, el porcentaje de individuos de la
población general que son heterocigotos para ese marcador. Ya hemos visto que si el individuo que
transmite la enfermedad es homocigoto para un marcador, esa familia no será informativa para ese
marcador, de ahí que la heterocigosidad sea una medida de la informatividad de un marcador genético.
Como pi2 es la frecuencia de homocigotos para cada alelo del marcador, el sumatorio de todos los
posibles homocigotos se le resta a 1 y se obtiene así el porcentaje de heterocigotos. Como criterio
general, se puede decir que la heterocigosidad de un marcador aumenta: (a) con el número de alelos
que ese marcador presenta en la población general; y (b) cuanto más parecidas son las frecuencias de
los distintos alelos de ese marcador.

El segundo miembro de la ecuación le resta a la heterocigosidad la probabilidad de que una familia no
sea informativa debido a que ambos padres son heterocigotos idénticos (en cuyo caso, como hemos
visto antes, la mitad de la descendencia será informativa (homocigotos) y la mitad será no-informativa
(los heterocigotos). Como es sabido, para dos alelos i y j con frecuencias alélicas pi y pj la frecuencia de
heterocigotos es 2pipj. Por tanto, la probabilidad de que dos individuos sean heterocigotos idénticos es
2pipj x 2pipj = 4(pi2pj2), pero como sólo se pierde informatividad en la mitad de la descendencia, en
la ecuación se resta sólo 2(pi2pj2).
Algunos ejemplos del cálculo del PIC ilustrarán la informatividad de los distintos tipos de marcadores
genéticos. Por ejemplo, un marcador bialélico (el caso típico sería un RFLP) con frecuencias alélicas iguales
(p1=p2=0,5) tendría:
Heterocigosidad = [1 – (p12+p22)] = [1 – (0.52+ 0.52)] = 1– 0.5 = 0.5
PIC = 1 – (p12+p22) – 2(p12 x p22) = 1 – (0.52+ 0.52) – 2(0.52 x 0.52) = 0.375
En cambio, un marcador con cuatro alelos (alelos 1, 2, 3 y 4) en el que cada alelo tiene una frecuencia p
= 0,25, presentará en principio 6 posibles combinaciones de heterocigotos, con genotipos (1-2), (1-3), (14), (2-3), (2-4) y (3-4). Por tanto, para calcular todos los posibles casos de heterocigotos idénticos en la
población, habrá que sumar [2(p12 p22)] + [2(p12 p32)] + [2(p12 p42)] + [2(p22 p32)] + … hasta
completar las seis posibles combinaciones de heterocigotos. Aplicando la fórmula general:
Heterocigosidad = [1 – (0,252+ 0,252+ 0,252+ 0,252 )] = 0,75
PIC= 1 – (0,252+ 0,252+ 0,252+ 0,252 ) – 6 [2(0,252 x 0,252 )] = 0,703
CAPÍTULO 11: LIGAMIENTO GENÉTICO EN HUMANOS
117
Como se ve, el hecho de que un marcador tenga 4 posibles alelos en vez de 2 aumenta su informatividad
casi al doble. De hecho, un marcador con 10 alelos arrojaría, aplicando la fórmula anterior, un PIC de 0,891
si las frecuencias alélicas son iguales. Por tanto, de los distintos marcadores que se han mencionado más
arriba, los más informativos son los de tipo microsatélite, seguidos por SNP y RFLP. De todas formas,
como ya se ha comentado, la posibilidad de estudiar a la vez miles de SNPs de forma automatizada (algo
que no es posible con los microsatélites), junto con su alta densidad a lo largo del genoma, hace que los
SNP sean hoy en día los marcadores de mayor utilidad en la construcción de mapas de ligamiento genético
de todo el genoma.
Sea cual sea el tipo de marcador utilizado, los estudios de ligamiento requieren genotipar a todos los
miembros de una familia para detectar la presencia de individuos recombinantes y así poder calcular la
fracción de recombinación. En el ejemplo de la familia con una enfermedad autosómica dominante
presentado en la Figura 11.2, hemos podido establecer que el individuo transmisor de la enfermedad
transmitía a la vez el alelo 2 del marcador, ya que ambos se localizan a poca distancia en el mismo
cromosoma. Sabemos esto porque este individuo, a su vez, heredó la enfermedad de su padre, que también
le transmitió el alelo 2 del marcador. Cuando en un individuo que transmite una enfermedad podemos
determinar inequívocamente el origen parental tanto del alelo que causa la enfermedad como de los alelos
del marcador es decir, podemos determinar qué alelos de cada uno de los dos loci van en el mismo
cromosoma se dice que conocemos la fase de ligamiento de ese individuo. Precisamente es el hecho de
conocer la fase de ligamiento en el individuo transmisor lo que hace que todas las meiosis de este individuo
sean informativas, y nos permite determinar con certeza si los individuos de la descendencia son
recombinantes o no. Se recordará que en el caso concreto de esta familia había un individuo recombinante
de un total de 6, lo que sugiere que ambos loci (el marcador y el gen de la enfermedad) están en ligamiento
a una distancia que produce 1 recombinante de cada 6 individuos (fracción de recombinación =1/6=0,17,
es decir a una distancia genética de 17 cM). El principal problema es que este resultado podría haberse
dado por azar: teóricamente es posible que no haya ligamiento y que una descendencia más numerosa
nos mostrase una fracción de recombinación más cercana al 50% de individuos recombinantes. Frente a
esta "hipótesis nula" (no ligamiento) tenemos una hipótesis alternativa de que existe ligamiento entre
ambos loci, a una distancia tal que origina una = 0,17. ¿Cómo podemos determinar cuál de las dos
hipótesis es la verdadera ó, al menos, la que mejor explica los datos obtenidos en esta familia?
El cálculo del LOD score
Para cuantificar la significación de cada una de estas hipótesis, los estudios de ligamiento utilizan un método
llamado "Estimación de la Máxima Verosimilitud" ("verosimilitud" es la traducción del término inglés
likelihood). Este método consiste en estimar la verosimilitud de cada hipótesis, calculando la probabilidad de
encontrarnos con esa fracción de recombinación cuando se verifica esa hipótesis. Por ejemplo, para estimar
la verosimilitud de la hipótesis de ligamiento, calculamos la probabilidad de obtener 1 recombinante de cada
6 individuos en el caso de que exista ligamiento a una distancia de 17 cM; para estimar la verosimilitud de
la hipótesis nula, calculamos la probabilidad de obtener 1 recombinante de cada 6 individuos en el caso de
que no exista ligamiento, y así sucesivamente. El razonamiento matemático para estimar estas
probabilidades se puede ilustrar con un ejemplo del lanzamiento de monedas.
La Figura 11.4 ilustra el modo de estimar la verosimilitud de una hipótesis.
118
GENÉTICA HUMANA
Aplicando esta forma de proceder al árbol que hemos venido estudiando, recordamos que hay 5 individuos
no-recombinantes y 1 recombinante, luego formulamos la hipótesis H1 de que la distancia entre el locus de
la enfermedad y el locus del marcador es tal que producen una frecuencia de recombinación =1/6. Por
tanto, bajo esta hipótesis, la probabilidad de encontrar un individuo recombinante es P(R)=1/6, y la
probabilidad de encontrar un no-recombinante es P(NR)=5/6. La verosimilitud de que esta hipótesis (H1,
=1/6) explique nuestros datos experimentales (5 no-recombinantes y 1 recombinante) se calcula aplicando
la fórmula general:
L (H1) = R x (1-)NR
Por el contrario, la verosimilitud de la hipótesis nula para explicar nuestros datos sería:
L (H0) =  (R + NR)
Para calcular cuántas veces más verosímil es nuestra hipótesis que la hipótesis nula, hallamos el cociente de
verosimilitudes (likelihood ratio). En genética humana, para que este cociente sea significativo al 95% se
requiere que sea mayor o igual a 1000. Es fácil darse cuenta que uno de los principales problemas que
nos encontramos es el tamaño pequeño de las generaciones, al contrario de los estudios de ligamiento que
se hacen en otras especies. Una forma de solventar este problema es repetir el análisis en varias familias
distintas, y combinar los resultados obtenidos en cada una de ellas con el fin de aumentar la potencia
estadística de los estudios de ligamiento. Para poder combinar resultados de familias distintas, Newton
Morton ideó el concepto del Lod score (que podría traducirse como "puntuación lod" y se representa por la
letra Z), que es el log10 del cociente de verosimilitudes. Por tanto, un cociente de verosimilitudes = 1000
equivale a un lod score igual a 3 (Z=3), y éste es precisamente el valor mínimo de Z que se requiere
para poder afirmar que existe ligamiento significativo entre dos loci.
Para hallar el lod score máximo de todos los posibles, es habitual utilizar programas de ordenador que
calculan directamente el lod score que se obtiene para varias hipótesis de ligamiento y a distintos valores de
. Además, como los resultados de una sola familia raras veces serán significativos, necesitamos combinar
los resultados obtenidos a partir de los datos de varias familias. Para ello, se suman los lod scores (Z)
obtenidos para cada  en las distintas familias que estamos analizando, hasta identificar la fracción de
recombinación a la que obtenemos el lod score máximo en el conjunto de las familias analizadas.
Éste es el valor que finalmente nos permitirá afirmar si existe o no ligamiento significativo entre el gen de la
enfermedad y este marcador. Además, como la Z máxima se obtiene a una fracción de recombinación
concreta, podemos también estimar la distancia genética más probable entre ambos loci, expresada —como
siempre— en centimorgans. Por ejemplo, si la Z máxima se obtuvo a una  = 0,16, la distancia genética
entre ambos loci estará en torno de 16 cM, con un intervalo de confianza cuyo cálculo es también sencillo.
La Figura 11.5 incluye un video y varios gráficos que explican el modo de
calcular el LOD store.
Un problema muy importante en los estudios de ligamiento es que muchas veces no podemos deducir la
fase de ligamiento en el progenitor que transmite la enfermedad, al no poder establecer con exactitud si
un alelo concreto del marcador está en el mismo cromosoma que lleva el alelo mutado o si está en el
CAPÍTULO 11: LIGAMIENTO GENÉTICO EN HUMANOS
119
cromosoma homólogo. Lógicamente, esto impide establecer si un individuo de la descendencia es
recombinante o no, y por tanto complica mucho el cálculo de la fracción de recombinación. De hecho, hay
dos posibles fases de ligamiento que tienen la misma probabilidad, y esto ha de tenerse en cuenta a la hora
de estimar la verosimilitud de cada hipótesis. Así, se calcula el cociente de verosimilitudes para cada una de
las fases de ligamiento alternativas y se halla el lod score promedio de ambas:
Z () = log 10 [1/2 [ R(1-)NR/ 0.5(R+NR)] + 1/2 [ NR(1-) R/ 0.5(R+NR)]]
Lógicamente, el desconocimiento de la fase de ligamiento en el individuo que transmite la enfermedad hace
que el valor final del lod score sea más bajo, por lo que –si los loci estudiados están realmente en
ligamiento— será necesario estudiar un mayor número de familias para poder alcanzar el valor umbral de
Z=3.
Es muy útil representar los valores que adopta el lod score Z en función de los distintos valores de la
fracción de recombinación . Cuando se hace esto, podemos observar varios tipos posibles de curva:

Si no se ha encontrado ningún individuo recombinante en ninguna de las familias estudiadas,
esto quiere decir que los dos loci que estamos estudiando (el locus de la enfermedad y el del
marcador) están en ligamiento y tan cercanos entre sí que no se producen sobrecruzamientos
entre ellos. El lod score es máximo a = 0, para ir bajando hasta Z=0 para una = 0,5.

Cuando existe ligamiento, lo más habitual es hallar una curva de forma parabólica, con un
pico máximo de lod score a una determinada fracción de recombinación. En estos casos el lod
score a la fracción de recombinación  = 0 debe ser (– ), ya que hemos encontrado
individuos recombinantes en alguna de las familias y esto hace imposible la hipótesis de que la
fracción de recombinación sea cero. El intervalo de confianza de la fracción de recombinación
máxima se calcula trazando una horizontal una unidad de lod score por debajo de la Z
máxima, y viendo dónde corta ambas ramas de la curva. Como siempre, el lod score Z se
hace 0 para una fracción de recombinación =0.5, pues en este caso el cociente de
verosimilitudes L(H1)/L(H0) = 1, y el log10 de 1 es igual a 0.

En ocasiones, la curva alcanza valores de Z inferiores a –2. En estas circunstancias podemos
afirmar que NO existe ligamiento por debajo de una determinada fracción de recombinación y
por tanto ambos loci necesariamente están a una distancia genética superior a la indicada por
esa fracción de recombinación (si es que efectivamente están en ligamiento).

Finalmente, hay ocasiones en que no encontramos ligamiento significativo, pero tampoco
podemos excluirlo para ninguna de las  estudiadas, puesto que no hay ningún valor de lod
score que sea superior a +3 o inferior a –2. En estos casos no podemos extraer ninguna
información útil de los datos obtenidos de estas familias.
Ligamiento no paramétrico y su utilización en genética humana
Como acabamos de ver, uno de los requisitos para poder hacer estudios de ligamiento mediante el cálculo
de lod score es conocer el tipo de herencia de la enfermedad que estamos estudiando, ya que sin esta
120
GENÉTICA HUMANA
información es imposible detectar la presencia de individuos recombinantes. De hecho, los programas de
ordenador que realizan los cálculos para el análisis de ligamiento exigen que se introduzcan varios
parámetros indicando el tipo de herencia (autosómica dominante, recesiva, etc). Por desgracia, la mayoría
de las enfermedades complejas (aquellas que están determinadas por varios genes y por factores
ambientales) no siguen un patrón hereditario mendeliano típico, por lo que los estudios de ligamiento
clásicos que se han estudiado hasta ahora no se pueden aplicar. En estos casos hay que acudir a métodos
de ligamiento que no requieren ajuste de la muestra a un modelo concreto de herencia, llamados por tanto
métodos no-paramétricos o independientes de modelo. Hay básicamente dos tipos de pruebas, las que
detectan ligamiento y las que detectan asociación alélica. Es muy importante darse cuenta de la
diferencia entre ambos conceptos: el ligamiento es un fenómeno que afecta a loci —se dice, por ejemplo,
que dos loci están en ligamiento a una distancia determinada— pero el alelo del marcador que "viaja" en el
con el alelo de la enfermedad puede ser diferente en familias distintas. Poro ejemplo, en una familia
concreta podemos detectar ligamiento porque la enfermedad siempre segrega junto con al alelo A1 de un
marcador, pero en otra familia distinta (con la misma enfermedad) el alelo mutado puede viajar con el alelo
A5 de ese mismo marcador. Ambos loci (el marcador y el gen de la enfermedad) están en ligamiento pero
en cambio no siempre se dan las mismas asociaciones de alelos en todas las familias. Esto es así porque
existe una situación de equilibrio de Hardy-Weinberg entre ambos loci, de manera que cada alelo de uno de
los locus puede encontrarse con cualquiera de los alelos del otro locus. Los métodos de análisis de
ligamiento no paramétricos que detectan asociación alélica buscarán precisamente desviaciones de esta
situación de equilibrio, detectando la presencia de un haplotipo (una determinada combinación de alelos
para dos loci distintos, en nuestro caso serían el alelo mutado y un alelo concreto del marcador) que se
encuentre con mayor frecuencia de la que cabría esperar si esos loci estuviesen en equilibrio. Si
demostramos que, incluso en familias distintas, la enfermedad se asocia significativamente con un alelo
concreto del marcador, podemos decir que existe asociación alélica; como la principal causa de asociación
alélica es el desequilibrio de ligamiento por cercanía física de ambos loci (están tan cercanos uno al otro
que no se ha alcanzado todavía el equilibrio de Hardy-Weinberg entre ellos), la asociación alélica se traduce
en cercanía física. Por tanto, podemos servirnos de la asociación alélica para localizar genes responsables de
enfermedades complejas, si detectamos ligamiento con algún marcador conocido. A continuación se explica
brevemente cómo funciona cada uno de estos métodos:
1. Los métodos que detectan ligamiento buscan alelos compartidos por todos los individuos que están
enfermos en una misma familia. Para comprender cómo se hace esto, es importante aprender a
distinguir los alelos que son idénticos por descendencia (situación que se denomina IBD: identical by
descent) de los alelos que son idénticos por estado (IBS: identical by state).
En la Figura 11.6 se intenta mostrar el concepto de alelos IBD y alelos IBS.
1-2
3-4
1-2
3-4
1-2
3-4
1-3
1-3 2 IBD
1-4
1 IBD
2-3
2-4 0 IBD
1-3
1-3 2 IBD
1-4 1 IBD
1-3
1-3
2 IBD
CAPÍTULO 11: LIGAMIENTO GENÉTICO EN HUMANOS
121
Los estudios de alelos idénticos por descendencia entre individuos enfermos de una misma familia se basan
en el hecho de que los hermanos que padecen una misma enfermedad tienen mayor probabilidad de
compartir el segmento genómico que contiene el gen causante de esa enfermedad. En ese segmento
también habrá, en la vecindad del gen, algunos marcadores (polimorfismos), y por tanto esas parejas de
hermanos también serán idénticos por descendencia para los alelos de esos marcadores. En
general, se puede demostrar que dos hermanos tienen una probabilidad del 25% de tener 2 alelos
cualesquiera idénticos por descendencia (probabilidad de 1/4), una probabilidad del 50% de compartir 1
alelo IBD (2 de 4 posibilidades) y una probabilidad del 25% de no compartir ningún alelo IBD. En cambio, si
ambos hermanos han heredado la enfermedad, compartirán el segmento genómico que contiene el gen
causal, incluidos los marcadores cercanos, por lo que encontraremos alelos IBD de esos marcadores en una
frecuencia superior a la esperable por el azar. Por ejemplo, en una enfermedad autosómica dominante el
50% de los hermanos enfermos compartirán en promedio 2 alelos IBD, y el 50% restante compartirán un
alelo IBD; en el caso extremo de una enfermedad autosómica recesiva, todos los hermanos afectados
compartirán como promedio 2 alelos IBD.
Por tanto, para realizar estas pruebas es preciso analizar miles de marcadores dispersos por todo el genoma
en un número bastante grande de parejas de hermanos enfermos, y así detectaremos una frecuencia de
alelos IBD significativamente superior a lo que sería esperable por el azar para aquellos marcadores
cercanos al gen de la enfermedad. Por esta razón, este método se denomina frecuentemente ASP
(affected sib-pair, parejas de hermanos afectados), porque busca regiones que sean idénticas por
descendencia en parejas de hermanos afectados por la misma enfermedad. Como a veces no es fácil contar
con el número suficiente de parejas de hermanos enfermos, otra variante de este método estudia miembros
más distantes de una misma familia, conocido como APM (affected pedigree member, miembro afectado
del árbol familiar). Como se ha mencionado, para poder detectar ligamiento utilizando estos métodos es
necesario genotipar un número elevado de marcadores distribuidos por todo el genoma y detectar aquellos
cuyos alelos son compartidos por parientes enfermos en proporciones significativamente mayores a lo
esperable por azar. Estos análisis se realizan utilizando programas de ordenador, tales como SIBPAL ó
GENEHUNTER. Además, Haseman y Elston desarrollaron un algoritmo para aplicar esto mismo a variables
cuantitativas (cualquier variable cuantificable numéricamente), haciendo una gráfica que representa la
diferencia entre hermanos para esa variable elevada al cuadrado (en ordenadas), frente al porcentaje de
alelos IBD compartidos por hermanos (en abscisas). Si la pendiente de la recta de ajuste es
significativamente negativa, esto indica que hay ligamiento, ya que en ausencia de ligamiento los valores
deben distribuirse alrededor de una línea vertical centrada en torno al 50% de alelos IBD.
2. Detección de asociación alélica. Cuando no se dispone de parejas de hermanos para estudios que
buscan alelos idénticos por descendencia, se pueden hacer estudios de asociación alélica para detectar un
marcador muy cercano al gen que causa una enfermedad. Aunque los estudios de asociación alélica pueden
emplearse también en cualquier situación, resultan especialmente útiles en poblaciones aisladas sometidas
a cierto efecto fundador, en las que todavía no han pasado el número suficiente de generaciones para que
todos los alelos presentes en la población hayan llegado a una equilibrio de Hardy-Weinberg. Por ejemplo, la
identificación del gen que está mutado en una enfermedad llamada Hemocromatosis Hereditaria se
identificó gracias a que la mutación específica se originó en una región geográfica concreta, y hoy en día se
encuentra especialmente en poblaciones de origen celta.
El tipo de familia que se necesita para los estudios de asociación es muy sencillo: ambos padres y un solo
descendiente enfermo. El cálculo puede hacerse mediante dos pruebas: TDT (Transmission-Disequilibrium
Test, prueba de transmisión del desequilibrio) ó HRR (Haplotype Relative Risk, riesgo relativo de un
122
GENÉTICA HUMANA
haplotipo), aunque el más popular y más usado es el método del TDT. Para realizar este test, se analiza un
mismo marcador en varias familias distintas, escogiendo un marcador para el que los progenitores sean
heterocigotos; a continuación se compara la frecuencia con la que se transmite cada alelo de los padres al
hijo afectado. Al hacer esto en varias familias, podemos detectar si hay algún alelo concreto del marcador
que se transmita preferencialmente a los hijos afectados sobre lo que sería esperable por el azar. Por
ejemplo, si a es el número de veces que un progenitor transmite el alelo A1 de un marcador, y b es el
número de veces que transmite un alelo distinto a A1, se puede demostrar que el estadístico (ab)2/(a+b) sigue una distribución chi-cuadrado con un grado de libertad. Si la frecuencia de transmisión de
este alelo a hijos enfermos es significativamente más alta de lo esperable por azar, podemos concluir que
existe asociación alélica y que, por tanto, el gen de la enfermedad está muy cercano a este marcador.
Lógicamente, como a priori no sabemos dónde está localizado el gen, hay que hacer el análisis utilizando
miles de marcadores distribuidos por todo el genoma, hasta dar con uno que muestre asociación con la
enfermedad.
La Figura 11.7 ilustra el Test de Transmisión de Desequilibrio (TDT) como
medida de asociación alélica.
Como resumen, a la hora de escoger un método para la detección de genes responsables de enfermedades
complejas hemos de tener en cuenta el tipo de familias de que disponemos, así como factores de tipo
material y económico (derivados del altísimo número de genotipajes que es necesario realizar). Aunque los
tests de ASP requieren menos genotipajes, la región genómica compartida que detectan es bastante grande,
por lo que la identificación posterior del gen que causa la enfermedad sería más laboriosa. Por eso, lo ideal
es complementar un estudio de ASP con estudios de asociación alélica, que requieren el genotipaje
de muchos más individuos, pero revelan regiones genómicas habitualmente menores a 1 Megabase.
Aunque los estudios que utilizan ligamiento no-paramétrico o asociación alélica suelen dar resultados cuya
significación es difícil de cuantificar, y a menudo los resultados obtenidos en estudios distintos no
concuerdan entre sí, son los únicos métodos válidos para localizar genes implicados en el desarrollo de
enfermedades complejas (poligénicas y multifactoriales). Precisamente son estas enfermedades las que
tienen mayor repercusión socio-sanitaria, por afectar a gran parte de la población.
Las nuevas tecnologías de genotipaje que utilizan marcadores tipo SNP (Single Nucleotide Polymorphisms,
ya
vistos
anteriormente)
han
acelerado
enormemente
la
identificación
de
genes
que
confieren
susceptibilidad a enfermedades comunes. Por ejemplo, en los últimos años se ha demostrado asociación
entre el gen CAPN10 y la susceptibilidad a desarrollar diabetes tipo 2, así como también entre un
polimorfismo en el gen de la interleuquina 12 y la diabetes tipo 1. Es previsible que en los próximos años se
identifiquen las principales variantes que confieren susceptibilidad a las enfermedades más frecuentes. Por
ejemplo, podemos pensar que en un futuro no muy lejano un paciente hipertenso que acuda a la consulta
genética será estudiado para detectar variantes de susceptibilidad en varios genes, y gracias a los
resultados se le clasificará dentro de un grupo molecular determinado que permitirá asignarle un
tratamiento dietético o farmacológico específico. Desde este punto de vista, el genotipaje de polimorfismos
concretos puede convertirse en un análisis de rutina en el diagnóstico de un número creciente de
enfermedades humanas en el próximo decenio. En este sentido, es importante detectar los SNP que pueden
ser más informativos en estos estudios: se estima que en toda la población mundial se encuentran unos 10
millones de SNPs en los que ambas variantes alélicas tienen una frecuencia mayor o igual a 1%. A pesar del
indudable interés que tienen estos polimorfismos para realizar estudios de asociación alélica, genotipar
todos estos SNPs en un número grande de individuos es, hoy por hoy, impracticable. Podemos salvar este
obstáculo gracias a que muchos SNP, por estar muy cerca físicamente, se heredan juntos en pequeños
CAPÍTULO 11: LIGAMIENTO GENÉTICO EN HUMANOS
123
bloques en los que todavía no se ha alcanzado el equilibrio de Hardy-Weinberg. Es decir, se pueden
identificar bloques de desequilibrio de ligamiento en el genoma, puesto que los alelos de los SNP que
están en un mismo bloque están en desequilibrio de ligamiento. La combinación concreta de alelos de los
distintos SNP que están en un mismo bloque constituye un haplotipo característico de ese bloque. Por
tanto, un grupo reducido de SNPs de cada haplotipo pueden ser representativos de todo ese haplotipo (por
lo que reciben el nombre de tag-SNPs, o SNP-etiqueta); de este modo, no es necesario genotipar todos los
SNPs del genoma, sino sólo los SNP-etiqueta. De hecho, se estima que bastaría con analizar unos 200.000
para cubrir todos los haplotipos del genoma humano, y esa es una cifra que se puede estudiar con la
metodología actual. Recientemente se ha publicado un mapa de 1,6 millones de SNPs que han sido
genotipados en 71 individuos estadounidenses de ascendencia europea, asiática y africana. Este mapa fue
completado por el Proyecto Internacional Hapmap, que publicó en 2005 un mapa con todos los
haplotipos de SNPs presentes en diversas poblaciones humanas, como se ha explicado en el capítulo 4. Este
mapa permite identificar la estructura y el tamaño de los bloques de desequilibrio de ligamiento del
genoma, y además hará posible la realización de estudios de asociación para identificar las regiones donde
residen los genes que confieren susceptibilidad a enfermedades comunes.
124
GENÉTICA HUMANA
CAPÍTULO 12: LOS GENES EN LAS POBLACIONES
125
Capítulo 12. Los genes en las poblaciones.
El equilibrio de Hardy-Weinberg. Cambios en las condiciones que mantienen
el equilibrio. Aplicaciones en Genética Humana. Formación de la Teoría
Sintética de la Evolución. Explicación actual del proceso evolutivo y sus
limitaciones.
La evolución biológica es el resultado de los cambios en los tipos y frecuencias de los alelos existentes en
una población de individuos, siempre y cuando dichos cambios son transmitidos a la generación siguiente.
En otras palabras, la evolución es el cambio en la constitución genética de una población a lo largo
del tiempo. Es importante comprender que: i) el hecho de que los cambios sean heredables quiere decir
que la base molecular de la evolución está en los genes; ii) la evolución no afecta a individuos, sino a
poblaciones.
El equilibrio de Hardy-Weinberg
La elaboración del concepto actual de evolución se remonta a los orígenes de la genética de poblaciones,
que describe la estructura genética de una población de individuos y predice sus cambios en el tiempo. G.H.
Hardy y W. Weinberg demostraron en 1908 que en una población sometida a unas condiciones
determinadas se observa que: i) las frecuencias de los alelos se mantienen estables durante sucesivas
generaciones, y ii) las frecuencias genotípicas también se mantienen constantes, debido a que dependen
exclusivamente de las frecuencias alélicas. Estos postulados se conocen como la Ley del equilibrio de
Hardy-Weinberg. Cuando no se dan las condiciones necesarias para se cumplan estos presupuestos,
aparecen alelos nuevos en la población o bien las frecuencias alélicas cambian. Esto, a su vez, crea las
condiciones básicas necesarias para que pueda darse evolución. Las condiciones que deben cumplirse
para que una población se encuentre en equilibrio genético, es decir, para que se cumpla la Ley de HardyWeinberg, son:

Población de tamaño grande en la que todos los individuos se reproducen.

Los cruzamientos entre individuos de la población se producen al azar.

Ausencia de mutación.

Ausencia de selección natural.

Ausencia de flujos migratorios.
Lógicamente, en la práctica es muy improbable encontrar una población en la que se cumplan todas estas
condiciones, por lo que la evolución es un hecho tan frecuente en la naturaleza.
La gran aportación metodológica de Hardy y Weinberg es que permite abordar el estudio de los cambios en
la estructura genética de una población en términos matemáticos precisos. En primer lugar, dedujeron una
ecuación que permite predecir las frecuencias genotípicas a partir de las frecuencias alélicas, y por tanto
saber si una población se encuentra en equilibrio. Según la ecuación del equilibrio de Hardy-Weinberg,
p² + 2pq + q² = 1
126
GENÉTICA HUMANA
siendo p y q las frecuencias de los dos alelos A y a de un gen que controla un carácter fenotípico. En estas
circunstancias, en una especie diploide, encontraremos individuos con 3 posibles genotipos: AA, aa y Aa.
Por tanto, es fácil establecer la relación entre frecuencias alélicas y frecuencias genotípicas:
p= AA + ½ Aa
q= aa + ½ Aa
Lógicamente, al haber sólo dos alelos se cumple que
p+q=1
p=1-q
q=1-p
De aquí se puede deducir que las frecuencias de los genotipos de los individuos de la población se
distribuyen según la expansión del binomio:
(p+q)2 = p² + 2pq + q²
es decir, p2 es la frecuencia de individuos con el genotipo AA, q2 es la frecuencia de individuos con
el genotipo aa, y 2pq es la frecuencia de individuos heterocigotos Aa. Lógicamente, el total es el
100% de los individuos de la población, luego
p² + 2pq + q² = 1
Llegados a este punto es importante recalcar una serie de conceptos fundamentales. En primer lugar, las
frecuencias alélicas son en sí mismas estables. Este concepto es muy importante y fue revolucionario
en su momento, porque hasta Hardy y Weinberg se pensaba que los alelos dominantes van desplazando a
los alelos recesivos de la población con el transcurso del tiempo, hasta eliminarlos por completo. Hardy y
Weinberg demostraron que esto no es así, siempre que se cumplan las condiciones básicas de equilibrio. De
hecho, no todas las desviaciones del equilibrio producen evolución, porque muchas veces se alteran
las frecuencias genotípicas sin que cambien las frecuencias alélicas. Como veremos a lo largo de este
capítulo, cuando no se cumple alguna de las condiciones necesarias para el equilibrio genético podemos
tener cambios en las frecuencias alélicas, en las frecuencias genotípicas, o en ambas.
Cambios en las condiciones que mantienen el equilibrio: cruzamientos no
aleatorios
Hardy y Weinberg demostraron que, en una población que no esté sometida a ninguna fuerza evolutiva, las
frecuencias alélicas se mantendrán constantes en generaciones sucesivas siempre que los cruzamientos
entre individuos sean aleatorios. Por ejemplo, para un carácter determinado por un gen que tiene dos
alelos A y a, de modo que la mitad de los alelos sean A y la otra mitad sean a (frecuencias alélicas de
0,5 para cada alelo), las frecuencias genotípicas serán 0,25 AA, 0,5 Aa y 0,25 aa. Si los individuos de
esta población se reproducen al azar, encontraremos teóricamente 9 tipos de cruzamientos, todos en la
misma proporción:
CAPÍTULO 12: LOS GENES EN LAS POBLACIONES
127
AA X AA
Aa X AA
aa X AA
AA X Aa
Aa X Aa
aa X Aa
AA X aa
Aa X aa
aa X aa
Si ahora calculamos los genotipos de la descendencia que resulta de cada cruzamiento, asignando 4
descendientes por pareja, tendremos los resultados que se muestran en la siguiente tabla:
Cruzamiento aleatorio
genotipos esperados en la descendencia
Cruzamientos posibles
AA
Aa
aa
AA
X
AA
4
AA
X
Aa
2
AA
X
aa
Aa
X
AA
2
2
Aa
X
Aa
1
2
1
Aa
X
aa
2
2
aa
X
AA
4
aa
X
Aa
2
aa
X
aa
Total
2
4
2
4
9
18
9
( 25% )
( 50% )
( 25% )
Como se puede comprobar, en la descendencia se mantienen las frecuencias genotípicas que existían en la
generación anterior: 25% de individuos AA, 50% de individuos Aa y 25% de individuos aa. Si
contamos el número de alelos A y a que hay en la nueva población, vemos que también las frecuencias
alélicas se han mantenido estables (50% de alelos A y 50% de alelos a).
En la naturaleza es bastante frecuente que los cruzamientos no se realicen totalmente al azar. En
muchas especies, los individuos se cruzan preferencialmente con otros que tienen ciertas características
fenotípicas (y, por tanto, determinados genotipos). Esto rompe las condiciones de equilibrio y cambia las
proporciones genotípicas esperadas. En los procesos de mejora animal y vegetal se utilizan a veces
cruzamientos dirigidos, con el fin de obtener individuos que tengan determinadas características fenotípicas
(tamaño de la flor, cantidad de carne, etc). En humanos tampoco es raro que se den cruzamientos
preferenciales por razones culturales, sociales, étnicas, geográficas, etc. Se distinguen varios tipos de
cruzamientos preferenciales:
Cruzamiento preferencial positivo: en este caso, los individuos tienden a cruzarse con otros que
comparten sus mismas características fenotípicas. En el caso más extremo, sólo tendremos
128
GENÉTICA HUMANA
cruzamientos de individuos genotípicamente iguales, es decir AA X AA, Aa X Aa y aa X aa. Por tanto, habrá
un incremento en el porcentaje de homocigotos y una disminución en la proporción de heterocigotos:
Cruzamiento Preferencial Positivo
genotipos esperados en la descendencia
cruzamientos posibles
AA
AA X AA
4
Aa X Aa
1
Aa
aa
2
1
aa X aa
Total
4
5
2
5
( 42% )
( 17% )
( 42% )
Nótese que en una sola generación las frecuencias genotípicas han variado sustancialmente
apartándose del equilibrio, aunque las frecuencias alélicas se mantienen en 50% A y 50% a.
Cruzamiento preferencial negativo: es muy raro en humanos, y se da cuando los individuos se cruzan
preferencialmente con otros que tienen características fenotípicas distintas a las suyas. Teóricamente, se
producirían 6 tipos de cruzamientos, con un aumento en la proporción de heterocigotos y un descenso en
las proporciones de homocigotos:
Cruzamiento Preferencial Negativo
genotipos esperados en la descendencia
cruzamientos posibles
AA X Aa
AA
Aa
2
2
AA X aa
Aa X AA
aa
4
2
2
Aa X aa
2
aa X AA
4
aa X Aa
2
2
4
16
4
( 17% )
( 67% )
( 17% )
Total
2
Nótese que, nuevamente, las frecuencias genotípicas se apartan del equilibrio pero las frecuencias
alélicas se mantienen constantes (50% A y 50% a).
CAPÍTULO 12: LOS GENES EN LAS POBLACIONES
129
Endogamia: la endogamia (o consanguinidad, como se denomina en poblaciones humanas) es el
cruzamiento entre individuos que guardan algún tipo de parentesco, es decir, que comparten un ancestro
común. Constituye una forma extrema de cruzamiento preferencial positivo, ya que los individuos
comparten una gran proporción de sus alelos (1/2 en el caso de hermanos, 1/8 en el caso de primos
hermanos, etc.). La endogamia se puede cuantificar mediante el coeficiente de endogamia (F), que mide
la probabilidad de que dos alelos en dos individuos de una población procedan de un ancestro común (es
decir, sean idénticos por descendencia). El cociente de endogamia F puede variar entre 0 (cruzamiento
aleatorio) y 1 (todos los alelos son idénticos porque proceden del mismo progenitor). Cuando nos
encontramos en una situación de endogamia, las frecuencias genotípicas van a cambiar de tal forma que la
frecuencia de homocigotos AA = p2+Fpq, la frecuencia de heterocigotos Aa = 2pq―2Fpq y la
frecuencia de homocigotos aa = q2+Fpq. Es decir, con cada generación de cruces endogámicos, la
frecuencia de heterocigotos disminuye y la de homocigotos aumenta. En el caso de retrocruzamientos con
un progenitor (como suele hacerse para conseguir líneas puras de ratones, por ejemplo), F=0,5 y la
frecuencia de heterocigotos disminuye a la mitad con cada generación. En general, el cruzamiento
preferencial puede hacer que en pocas generaciones aumente enormemente la proporción de individuos que
son homocigotos para un genotipo. El problema es que a veces un carácter resulta deletéreo y los individuos
homocigotos tienen su viabilidad ó su fertilidad reducidas, por lo que toda la población se ve afectada. Este
fenómeno se conoce como depresión endogámica. Lógicamente, la endogamia es un fenómeno más
grave que el apareamiento preferencial, ya que en éste último sólo se alteran las frecuencias genotípicas
para uno o varios genes (aquellos que controlan el carácter que condiciona la preferencia del
apareamiento). La endogamia, por el contrario, afecta a todo el genoma y tiene consecuencias más severas.
Aunque la gente piensa que los hijos de matrimonios consanguíneos tienen una alta probabilidad de sufrir
anomalías, esto no es necesariamente así. Únicamente cuando en la familia hay algún alelo recesivo
deletéreo, habrá mayor frecuencia de homocigotos para ese alelo como fruto de la consanguinidad. Un
ejemplo de lo anterior es el de la comunidad Amish de Pennsylvania y Ohio, que llevan varios siglos
viviendo aislados por razones culturales y religiosas. Los matrimonios repetidos entre miembros de la
misma comunidad han provocado una situación de endogamia en la que han aflorado algunas enfermedades
recesivas que son mucho más frecuentes en esta población que en la población general. En este sentido,
estudios hechos en niños japoneses han encontrado que cada aumento del 10% de F conlleva una
disminución de 6 puntos del cociente intelectual; además, en ese mismo estudio se vió que los hijos de
primos hermanos (en los que F=0,0625) tuvieron una mortalidad 40% superior a la de niños de
matrimonios no endogámicos. De todas formas, estudios hechos en varias poblaciones han determinado que
la descendencia de primos hermanos sólo tiene un riesgo de sufrir malformaciones congénitas
aproximadamente 2% superior al que existe en la población general, y de hecho los matrimonios entre
primos hermanos son relativamente frecuentes en ciertas culturas, como en la hindú ó la árabe.
Hemos visto qué sucede cuando no se cumple una de las condiciones necesarias para mantener el equilibrio
de Hardy-Weinberg en una población. Recordemos que la ausencia de cruzamientos aleatorios provoca un
desvío del equilibrio, con cambios marcados en las frecuencias genotípicas pero sin afectar a las frecuencias
alélicas. A continuación estudiaremos otras situaciones que, además de alterar las frecuencias
genotípicas, también producen cambios en las frecuencias alélicas en la población.
Cambios en las condiciones que mantienen el equilibrio: efectos del tamaño
poblacional
130
GENÉTICA HUMANA
Con cierta frecuencia se producen cambios aleatorios en el número de alelos que pasan de una generación a
la siguiente, por un efecto de error de muestreo. Dicho error se debe a que en una población no siempre
se reproducen todos los individuos, por lo que en la siguiente generación sólo tendremos un subgrupo de los
alelos que estaban presentes en la generación anterior, y esto da lugar a oscilaciones aleatorias en las
frecuencias alélicas de una generación a la siguiente. Este fenómeno se conoce como deriva genética
aleatoria, y es equivalente a sacar bolas de un saco que contiene, por ejemplo, 50 bolas blancas y 50 bolas
negras (100 bolas en total). Si sacamos 40 bolas para formar 20 parejas (lo que sería equivalente a sacar
alelos de una población para generar individuos diploides en la generación siguiente), lo normal es observar
pequeñas desviaciones respecto a la proporción teórica esperada de 20 bolas blancas y 20 bolas negras. De
este modo, con cada generación (cada vez que sacamos bolas de una bolsa), las frecuencias alélicas oscilan
por efecto del azar. Además, estas oscilaciones serán mayores cuanto menor sea el tamaño de la población.
Por ejemplo, si de la bolsa que contiene 100 bolas sacamos sólo 10 bolas, no sería de extrañar que
obtuviésemos grupos de 10 bolas en los que la mayoría fuesen de un mismo color. Incluso, por mero azar,
podríamos sacar 10 bolas blancas, en cuyo caso el color blanco se habría fijado en la nueva población ya
que habría desaparecido la posibilidad de sacar bolas negras en sucesivas generaciones. Por tanto, en el
caso de poblaciones con un pequeño número de individuos que se reproducen, la deriva genética aleatoria
puede tener efectos muy marcados sobre las frecuencias alélicas, pudiendo incluso hacer que uno de los
alelos sustituya completamente al otro (se dice entonces que un alelo ha quedado fijado y el otro ha sido
"barrido" de la población).
La Figura 12.1 ilustra el error de muestreo y la deriva genética aleatoria.
La deriva genética se puede estimar a partir de la variación alélica existente en la población, que se
cuantifica mediante la varianza estadística. En una población de tamaño N con frecuencias alélicas p y q,
la varianza de la frecuencia alélica (sp2) se puede calcular mediante la fórmula sp2=pq/2N. En otras
palabras, la deriva observada en una población depende de las frecuencias alélicas y del tamaño
poblacional. Por el numerador, podemos deducir que la deriva será mayor si las frecuencias alélicas son
iguales que si son muy dispares. De la fórmula se desprende también que la deriva será más acusada en
poblaciones de pequeño tamaño. La deriva genética tiene dos efectos principales: origina cambios en las
frecuencias alélicas, y puede también reducir la variabilidad genética cuando alguno de los alelos
se fija en la población. Además, como es un fenómeno aleatorio, encontramos que diferentes poblaciones
pueden derivar de modo distinto, aunque al principio del proceso tengan el mismo tamaño y las mismas
frecuencias alélicas.
Dos circunstancias afectan especialmente a poblaciones humanas y provocan cambios en las frecuencias
alélicas de la población por deriva genética aleatoria. En primer lugar, algunas poblaciones humanas
actuales han sido fundadas por un pequeño núcleo inicial de pobladores que han dado lugar a la población
actual. Puede suceder que en el grupo inicial de pobladores existiese algún alelo concreto (por ejemplo, una
mutación que causa una enfermedad genética) en baja frecuencia. Si todos los individuos se reproducen,
incluyendo los enfermos, el resultado tras muchas generaciones será que ese alelo (y la enfermedad
causada por él, en nuestro ejemplo) serán muy frecuentes en la población actual. Este fenómeno se conoce
como efecto fundador. Hay muchos ejemplos de enfermedades o rasgos genéticos cuya alta frecuencia en
determinadas poblaciones se puede explicar por un efecto fundador. Por ejemplo, la alta frecuencia del
grupo sanguíneo 0 entre los indios de América del Sur y Central parece deberse a que todos
proceden de un pequeño número de pobladores que entraron por el estrecho de Behring al final de la última
glaciación, entre los que ese grupo sanguíneo debía ser predominante. Quizás el caso más extremo de
efecto fundador es el de la enfermedad de Huntington, un desorden neurológico que se encuentra con una
CAPÍTULO 12: LOS GENES EN LAS POBLACIONES
131
frecuencia mucho más alta de lo normal en una pequeña población del lago Maracaibo, en Venezuela.
Parece que la gran mayoría de los pobladores actuales de esa región, unos 20.000, proceden de una misma
mujer que llegó a la zona en el siglo XIX y que sufría la enfermedad. Otro fenómeno similar que perturba las
frecuencias alélicas por deriva genética aleatoria es el efecto de cuello de botella. En este caso, alguna
causa (un desastre natural, epidemias, guerras) lleva a reducir drásticamente el tamaño de una población
en una generación, por lo que las frecuencias alélicas de la generación siguiente serán muy distintas a las
de la generación anterior. En casos de cuello de botella muy acentuados, puede llegarse a la pérdida de
algún alelo, y a menudo los cuellos de botella provocan una reducción importante en la diversidad genética
de la población que sobrevive.
Hasta ahora hemos visto situaciones que alteran el equilibrio de Hardy-Weinberg en una población,
produciendo cambios en las frecuencias genotípicas y alélicas por diversos mecanismos. De todas formas,
los mecanismos más importantes para generar evolución son los que introducen nuevos alelos en una
población (trasladándolos desde otras poblaciones o generando alelos nuevos a partir de los ya existentes) y
la selección natural, que elimina o favorece aquellos alelos que permiten la mejor adaptación de la
especie a su medio. En primer lugar veremos los procesos que crean nuevos alelos en una población
determinada.
Cambios en las condiciones que mantienen el equilibrio: migración o flujo
genético
Sin duda, los fenómenos migratorios son actualmente la principal causa de entrada de alelos nuevos en
poblaciones humanas. La llegada de individuos con una constitución genética distinta (flujo genético), en la
medida en que los nuevos individuos se mezclan con la población existente, hace que las frecuencias
alélicas de la población receptora cambien ó que aparezcan nuevos alelos que antes no estaban presentes.
Del mismo modo, la población que sufre la emigración también puede verse sometida a cambios en las
frecuencias alélicas, si los individuos que la abandonan no son totalmente representativos del acervo
genético de la población. Por ejemplo, si m individuos de una población 1 en la que un alelo tiene una
frecuencia q1 migran a otra población 2 en la que ese alelo está en una frecuencia q2, la frecuencia del
alelo en la población que resulta después de la migración será q’= q1m + q2(1-m). De esta ecuación es
fácil deducir que el cambio en la frecuencia alélica en la población 2 (la población receptora) es igual a
m(q1−q2), lo que quiere decir que los efectos sobre las frecuencias alélicas dependerán del número de
individuos que migran (m) y de la diferencia inicial en las frecuencias alélicas entre ambas poblaciones.
Aunque el efecto de la migración es homogeneizar las diferencias genéticas entre poblaciones (al
contrario que la deriva ó la selección natural, como veremos más adelante), es una causa importante de
entrada de nuevos alelos y de aumento de la variabilidad en una población concreta.
Cambios en las condiciones que mantienen el equilibrio: recombinación y
mutación
Los fenómenos moleculares capaces de crear nuevos alelos ó nuevas combinaciones de alelos ya existentes
son la mutación y la recombinación, respectivamente. La recombinación tiene lugar en las células
germinales, durante la meiosis. En el caso de la especie humana, los 23 cromosomas del gameto masculino
se alinean con los del gameto femenino e intercambian segmentos de material genético. Esto hace que los
132
GENÉTICA HUMANA
cromosomas resultantes lleven combinaciones de alelos (haplotipos) que no estaban presentes en
ninguno de los progenitores. Aunque no se crean nuevos alelos sino nuevas combinaciones de los ya
existentes, la recombinación constituye un importantísimo mecanismo de creación de diversidad genética.
La mutación es el cambio introducido en el material genético a nivel molecular, alterando la secuencia de
nucleótidos. Las mutaciones pueden ser puntuales (si afectan únicamente a un nucleótido) o pueden alterar
segmentos más o menos grandes del genoma (alteraciones cromosómicas, por ejemplo). Desde el punto de
vista evolutivo, las únicas mutaciones que interesan son las que afectan a las células germinales, pues
son las únicas que se transmitirán a la generación siguiente. Lógicamente, además es necesario que la
mutación se exprese en un fenotipo, es decir, que altere alguna función biológica. Esto no es lo habitual, ya
que la mayoría de las mutaciones son silenciosas (no alteran la secuencia de aminoácidos de la proteína
codificada por el gen) y, por tanto, son "neutras" desde el punto de vista evolutivo. Las mutaciones
deletéreas suelen ser eliminadas por selección, aunque a veces quedan en el acervo genético en forma
recesiva y pueden aflorar en generaciones futuras (esto es lo que se conoce como "lastre genético"). En
definitiva, cuando la mutación es la única fuerza evolutiva que actúa sobre una población, los cambios en
las frecuencias alélicas son muy pequeños y serían necesarias muchas generaciones para producir
variaciones significativas. Aunque la tasa mutacional (el número de mutaciones que se introducen por
generación) varía de una especie a otra y en general es bastante baja, la mutación es la "materia prima"
sobre la que actúa la principal fuerza evolutiva: la selección.
Los enlaces de la Figura 12.2 permiten simular el efecto de la migración y la
mutación sobre las frecuencias alélicas.
Cambios en las condiciones que mantienen el equilibrio: selección
La principal intuición de Charles Darwin, fruto de las observaciones que le llevaron a escribir "El origen de
las especies", fue que el principal mecanismo evolutivo es la selección natural. El concepto de selección
natural es simple, y podría definirse como la diferente eficacia biológica (entendida como viabilidad o
capacidad reproductiva) que confieren alelos distintos. Así, los alelos que permiten una mejor adaptación al
medio tienden a ser favorecidos, mientras que los alelos deletéreos tienden a ser eliminados de la
población. Según esto, los alelos neutros, que no confieren ninguna ventaja ni desventaja, no estarán
sometidos a selección. Un ejemplo muy citado es el de la polilla Biston betularia, estudiada por H. B. D.
Kettlewell en la segunda mitad del siglo XIX en Manchester. Kettlewell observó que antes de 1848 esta
especie se encontraba con dos colores distintos, claro u oscuro, y que las polillas oscuras eran menos del
2% de la población de polillas de la zona. Durante los años siguientes, la proporción de polillas oscuras fue
creciendo hasta llegar a constituir el 95% del total en el año 1898. Esto se observaba en las zonas
industrializadas, mientras que en las zonas rurales el aumento de polillas oscuras era menos acusado. Como
el color de las polillas es un rasgo codificado por un gen, el cambio en los colores era el resultado de
cambios en las frecuencias alélicas. Kettlewell atribuyó el cambio al hecho de que la industrialización de la
región hizo que el hollín se depositase en los abedules donde se posaban las polillas, y esto hacía que las de
color claro destacasen más y fuesen presa más fácil de los pájaros depredadores. Las polillas oscuras, en
cambio, tenían una mayor probabilidad de pasar desapercibidas y sobrevivir. Por tanto, las polillas oscuras
sobrevivían más que las claras y se reproducían con más frecuencia, haciendo que los alelos que generan el
color oscuro pasaran preferentemente a las generaciones sucesivas. La mejor adaptación al medio de las
polillas oscuras, simplemente por un mecanismo de selección, provocó la evolución de esta especie en esa
región.
CAPÍTULO 12: LOS GENES EN LAS POBLACIONES
133
Para cuantificar los efectos de la selección, es necesario calcular la eficacia biológica relativa ó “fitness”,
que es el éxito reproductivo relativo de un genotipo concreto. La eficacia se representa por la letra w y su
valor varía entre 0 y 1. Por ejemplo, para dos alelos A y a, se puede calcular la descendencia media que
produce cada genotipo. Supongamos que los individuos con genotipo AA tienen una media de 10
descendientes, los Aa 5 descendientes y los aa 2 descendientes. La eficacia de cada genotipo se calcula
como el número de descendientes de ese genotipo respecto al genotipo más eficaz: wAA = 10/10 = 1; wAa
= 5/10 = 0,5; waa = 2/10 = 0,2.
Una variable relacionada con la eficacia biológica relativa es el coeficiente de selección (s), que indica la
intensidad de la selección frente a un genotipo determinado. El cálculo se hace con arreglo a la fórmula
s=1-w, luego en el ejemplo anterior tendríamos que sAA = 0; sAa= 0,5; saa = 0,8. Este modelo permite
predecir que, en ausencia de otros factores, la diferente eficacia biológica de cada genotipo provocará
cambios en las frecuencias alélicas con cada generación. Estos cambios dependerán únicamente de las
frecuencias alélicas iniciales y de la eficacia biológica relativa de cada genotipo. Así, para genotipos AA, Aa
y aa que estén en frecuencias p2, 2pq y q2 respectivamente, con eficacias wAA, wAa y waa, las frecuencias
genotípicas tras selección durante una generación serán:
f(AA) = p2 wAA
f(Aa) = 2pq wAa
f(aa) = q2 waa
Es importante darse cuenta de que la selección, en sí misma, no tiene memoria ni es un proceso guiado
hacia un fin, no "piensa" lo que va a suceder dos o tres procesos de selección después. Simplemente
consigue la mejor adaptación a las condiciones ambientales que se dan en un momento dado, pero si esas
condiciones cambian los rasgos que habían sido seleccionados pueden volver a perderse. Por eso, la
selección no es un proceso progresivo de "mejora" de una población, porque los individuos mejor
adaptados en un momento concreto no tienen por qué ser biológicamente más perfectos.
En los enlaces de la Figura 12.3 se puede estudiar el efecto de la selección en
distintas condiciones.
Existen varios tipos de selección que tienen distintos efectos sobre las frecuencias alélicas y la variabilidad
genética de la población. Si consideramos un rasgo fenotípico controlado por un gen con dos alelos,
podemos distinguir 4 tipos principales de selección:
i) selección contra uno de los homocigotos. En este caso, uno de los genotipos homocigóticos (AA ó
aa, en los ejemplos que venimos viendo) tiene desventaja adaptativa y por eso la selección actúa en su
contra. La consecuencia es la disminución progresiva de la frecuencia del alelo presente en ese
genotipo. Por ejemplo, en el caso extremo de selección completa en contra del genotipo aa, los individuos
aa no llegarán a reproducirse y los únicos emparejamientos posibles serán los que se muestran en la
siguiente tabla:
Selección contra un homocigoto (aa)
Posibles cruzamientos
Genotipos esperados en la descendencia
134
GENÉTICA HUMANA
AA
Aa
AA X AA
4
AA X Aa
2
2
Aa X AA
2
2
Aa X Aa
1
2
Total
aa
1
9
6
1
( 56% )
( 38% )
( 6% )
Como se observa, en la siguiente generación la frecuencia del alelo a habrá caído al 25% (8 alelos a de un
total de 32), y esta tendencia se mantendrá mientas dure la selección. De todas formas, es importante
darse cuenta de que el alelo a nunca llegará a desaparecer de la población, porque siempre será
transmitido por individuos heterocigotos Aa. En las poblaciones humanas, los rasgos recesivos se ven
sometidos a este tipo de selección, aunque de un modo mucho más leve. Por una parte, algunos rasgos
recesivos, como el albinismo, no suponen una gran desventaja selectiva. Otras enfermedades más severas,
en las que hace años había una alta mortalidad antes de llegar a la edad reproductiva, cuentan hoy en día
con tratamientos más eficaces y se consigue que los enfermos vivan más años y puedan reproducirse, por lo
que el efecto de la selección sobre las frecuencias alélicas es menor. Si se conocen los valores de eficacia
biológica relativa (w) de cada genotipo (y por tanto los del coeficiente de selección s), se puede calcular el
cambio que se producirá en la frecuencia alélica utilizando diversas fórmulas para fenotipos recesivos,
dominantes o sin dominancia.
En la historia reciente de las poblaciones humanas encontramos un ejemplo muy ilustrativo de selección
contra un homocigoto. Un alelo concreto del gen que codifica el receptor 5 de quimioquinas (alelo
denominado CCR5delta32) confiere a las células resistencia frente a la invasión por la bacteria causante de
la peste bubónica. Los individuos homocigotos para ese alelo son inmunes a la peste, y los heterocigotos
tienen cierta inmunidad. Los homocigotos sin ese alelo, en cambio, son los más susceptibles. Dado que las
poblaciones europeas fueron sometidas a varias epidemias de peste en los siglos XIV a XVIII, durante las
que murieron millones de personas, el alelo CCRdelta32 aumentó mucho en su frecuencia, y hoy se
encuentra en torno al 10% en poblaciones europeas, muy superior a otras zonas del planeta. Recientemente
se ha visto que este alelo también protege frente a la infección por el virus VIH causante del SIDA.
ii) selección contra ambos homocigotos. En este caso, ambos homocigotos están en desventaja
selectiva en comparación con los heterocigotos (wAA < wAa > waa), de ahí que se llame selección a favor
de heterocigotos ó también sobredominancia. En el caso más extremo, los individuos AA y aa nunca
llegan a reproducirse, por lo que sólo hay cruzamientos Aa X Aa. Aunque este tipo de cruzamientos produce
¼ de homocigotos AA y ¼ de homocigotos aa, éstos no llegan a reproducirse y sólo los heterocigotos Aa
pasan sus alelos a la generación siguiente. El efecto neto es que en pocas generaciones se estabilizan las
frecuencias de los dos alelos (equilibrio polimórfico estable), por lo que este tipo de selección se llama
también selección estabilizante.
El ejemplo más ilustrativo de selección contra ambos homocigotos es la relación entre la anemia
falciforme y la malaria en el África sub-sahariana. La anemia falciforme es una enfermedad recesiva
rara, en la se produce un tipo de hemoglobina anormal (hemoglobina S) que hace que sus hematíes
adquieran una conformación anómala. Los homocigotos sufren una forma grave de la enfermedad y mueren
CAPÍTULO 12: LOS GENES EN LAS POBLACIONES
135
en la infancia, por lo que habitualmente no llegan a reproducirse. Los heterocigotos, en cambio, sufren una
forma leve que no compromete su viabilidad. Curiosamente, la anemia falciforme protege frente a la
infección por Plasmodium falciparum, el organismo causante de la malaria. El parásito crece dentro de los
hematíes, pero no puede entrar en hematíes que están deformados como consecuencia de la hemoglobina
S. Por tanto, los individuos con hemoglobina normal son mucho más susceptibles a la infección que los
individuos con anemia falciforme: los individuos heterocigotos para la hemoglobina S están relativamente
protegidos frente al Plasmodium, aunque no tanto como los homocigotos. Por tanto, tenemos una situación
en la que tanto ambos tipos de homocigotos tienen comprometida su viabilidad: los individuos con
dos alelos de hemoglobina S, debido a la anemia falciforme, y los individuos con hemoglobina normal,
debido a que son más fácilmente infectados y mueren de malaria. En cambio, los heterocigotos con un solo
alelo falciforme están relativamente protegidos frente a la malaria y no padecen la forma mortal de anemia,
de modo que se ven favorecidos respecto a los homocigotos. El efecto neto es que en las zonas de África
donde hay malaria la frecuencia del alelo falciforme es mucho más alta que en el resto del planeta.
iii) Selección contra heterocigotos y uno de los homocigotos. Esto equivale a la selección a favor de
uno de los genotipos homocigotos (wAA > wAa > waa, por ejemplo). En este caso, los cambios en las
frecuencias alélicas serán muy rápidos a favor del alelo presente en el genotipo más eficaz. De hecho, en el
caso extremo en que los heterocigotos y un tipo de homocigotos no se reproduzcan, en una sola generación
puede perderse un alelo y quedar fijado el otro. Por ejemplo, si la selección actúa contra heterocigotos Aa y
homocigotos aa, sólo llegarán a reproducirse los individuos AA, con lo que el alelo a estará ausente en la
siguiente generación. Lógicamente, esta forma extrema de selección no es frecuente en poblaciones
humanas, aunque las enfermedades dominantes en las que tanto los heterocigotos como los homocigotos
sufren la enfermedad podrían estar sujetas a este tipo de selección siempre que estos individuos vean
reducida su viabilidad.
iv) selección contra heterocigotos. Finalmente, si la selección actúa únicamente en contra de los
heterocigotos (WAA > WAa < Waa) ocurrirá que la población se polarizará hacia los homocigotos, y esto se
conoce como infradominancia. En el caso de alelos A y a con frecuencias p = q = 1/2, únicamente habrá
cruzamientos entre homocigotos de ambos tipos, que producirán una descendencia típica con proporciones
25% AA, 50% Aa y 25% aa.
Selección contra heterocigotos (Aa)
Genotipos esperados en la descendencia
Posibles cruzamientos
AA
AA X AA
Aa
4
AA X aa
4
aa X AA
4
aa X aa
Total
aa
4
4
8
4
( 25% )
( 50% )
( 25% )
De todas formas, como los individuos Aa fallecen antes de reproducirse, las frecuencias alélicas se
reajustarán rápidamente hacia 50% A y 50% a. Por tanto, la subdominancia también produce un
136
GENÉTICA HUMANA
equilibrio polimórfico, pero al contrario que en el caso de la sobredominancia, aquí el equilibrio es
inestable. Cualquier perturbación por alguna otra fuerza evolutiva hará que las frecuencias alélicas
cambien rápidamente hasta fijar uno de los alelos en la población.
Aplicaciones en Genética Humana
Aunque ya hemos visto algunos ejemplos en los que las nociones básicas de la Genética de poblaciones se
aplican a poblaciones humanas, podemos hacer otras consideraciones de gran interés práctico. La más
inmediata es que la Ley de Hardy-Weinberg permite calcular las frecuencias de los alelos mutantes
que causan enfermedades humanas. Esto es especialmente útil en el caso de enfermedades recesivas, en
las que sólo los homocigotos desarrollan la enfermedad. Si se conocen las cifras de prevalencia de la
enfermedad en una población podemos calcular las frecuencias alélicas, la tasa de portadores en la
población y las tasas de incidencia previstas en generaciones futuras. Por ejemplo, si la prevalencia de una
enfermedad recesiva es de 25 enfermos por cada 100.000 habitantes, entonces q2=0,00025 y q=0,016.
Por tanto, p=0,984 y 2pq=0,031. En otras palabras, en esa población la tasa de portadores es del
3,1% y se mantendrá estable si no se alteran significativamente las condiciones del equilibrio. También es
importante hacer algunas consideraciones respecto a la eficacia de las campañas de detección prenatal
de enfermedades recesivas. La finalidad de estas campañas es evitar que nazcan individuos enfermos, es
decir, homocigotos; sin embargo, esto no hace que disminuya la frecuencia alélica ni el porcentaje de
individuos portadores (heterocigotos). En efecto, tal y como hemos visto al hablar de selección frente a un
homocigoto (en este caso, recesivo), el alelo deletéreo nunca desaparece. Esto significa que las campañas
eugenésicas son totalmente ineficaces para eliminar alelos recesivos de una población. Por ejemplo, se
ha calculado que si la frecuencia del alelo recesivo causante del albinismo en Noruega es del 1%, un
programa eugenésico dirigido a eliminar el alelo albino de la población noruega (esterilizando, por ejemplo,
a todos los albinos) tardaría 100 generaciones en reducir la frecuencia alélica a la mitad de su
valor actual (0,005) y llevaría 9.900 generaciones reducirla al 0,0001. En este sentido, el parámetro
más importante para saber si es factible aplicar una campaña de detección prenatal en una enfermedad
recesiva es el cociente entre heterocigotos y homocigotos: cuanto menor es la frecuencia del alelo
mutante (q), mayor es el cociente 2pq/q2 y la frecuencia alélica q apenas bajará debido al alto número de
portadores en la población. En cambio, estas campañas resultan más eficaces para hacer disminuir el
número de nuevos enfermos en el caso de enfermedades recesivas más frecuentes, en las que q es más
alto y el cociente 2pq/q2 menor.
Las enfermedades ligadas al cromosoma X constituyen un caso especial para el cálculo de frecuencias
alélicas y genotípicas, ya que los enfermos son habitualmente varones hemicigotos que sólo llevan una
copia del alelo mutante. Por tanto, la prevalencia de la enfermedad en la población (varones enfermos por
100.000 habitantes) es igual a q (la frecuencia del alelo mutante). El porcentaje de mujeres homocigóticas
(y, por tanto, enfermas) es q2, y suele ser muy bajo.
Aunque en otras especies es relativamente sencillo calcular la tasa de mutaciones, la eficacia biológica
relativa y el coeficiente de selección, en poblaciones humanas sólo podemos obtener aproximaciones. Por
ejemplo, la tasa de nuevas mutaciones en enfermedades dominantes puede estimarse utilizando la
fórmula =n/2N, siendo n el número de enfermos que nacen de padres sanos (los cuales deben ser
homocigotos sanos si la enfermedad tiene penetrancia completa) y N el número total de nacimientos. Los
cálculos de  varían de unas enfermedades a otras, lo que refleja que las tasas de mutación no son
iguales para todos los genes.
CAPÍTULO 12: LOS GENES EN LAS POBLACIONES
137
Finalmente, podemos fijarnos en cómo mutación y selección natural actúan en direcciones opuestas,
en especial sobre los alelos deletéreos. Éstos aumentan por efecto de la mutación, pero la selección tiende a
eliminarlos de la población. Cuando ambas fuerzas alcanzan un equilibrio en el que todos los nuevos alelos
mutados son eliminados por selección, la frecuencia de un alelo deletéreo dominante es igual al
cociente /s, siendo  la tasa de mutaciones y s el coeficiente de selección. En el caso de un alelo
recesivo, su frecuencia es igual a la raíz cuadrada del cociente /s. Si conocemos la tasa de mutación y
la frecuencia alélica, podemos calcular la eficacia biológica ó viceversa. Por ejemplo, se sabe que la
acondroplasia, una enfermedad autosómica dominante, tiene una eficacia W=0,74, ya que los individuos
con acondroplasia son fértiles pero tienen en promedio un 74% de la descendencia que tienen los individuos
sin acondroplasia. Por tanto, s=1―W=0,26. Si la tasa mutacional calculada para este gen (usando la
fórmula del párrafo anterior) es de 3x10-5 mutaciones por generación, podemos deducir que la frecuencia
alélica es q = 0,0003/0,26 = 0,0012, que corresponde con la frecuencia de la enfermedad en la
población.
Una última consideración es la que hace referencia al papel de la selección natural en poblaciones humanas
en la actualidad. Así como a lo largo de nuestra historia la selección ha jugado un papel importante en los
cambios de frecuencias alélicas, y en gran parte del mundo todavía es así (recuérdese el ejemplo de la
malaria en África), en el mundo industrializado el papel de la selección es cada vez menor. Esto es
consecuencia de las mejoras en la calidad de vida y en los cuidados sanitarios, que hacen posible que
individuos enfermos (que, de otro modo, fallecerían antes de la edad reproductiva) vivan más y puedan
llegar a reproducirse y pasar los alelos mutantes a la siguiente generación. Esto es especialmente claro en el
caso de tumores hereditarios de la infancia, como el retinoblastoma, que es una enfermedad de herencia
autosómica dominante. También sucede con enfermedades recesivas comunes, como la fibrosis quística,
que hace años tenía una alta mortalidad durante la infancia y en cambio hoy en día los enfermos suelen
vivir hasta la edad adulta. Lógicamente, no debemos renunciar a los logros alcanzados en el tratamiento de
las enfermedades, pero hemos de ser conscientes de que las poblaciones humanas van acumulando un
lastre genético cada vez mayor.
Formación de la Teoría Sintética de la Evolución
En sentido biológico amplio, la evolución es un concepto universalmente aceptado: a lo largo de la historia
natural del planeta, unas especies han ido desapareciendo y dando paso a otras que se derivan de las
anteriores. Lamarck, al comienzo del siglo XIX, fue el primer naturalista en proponer el concepto de que
unas especies se han ido transformando en otras, aunque en aquel momento esto no pasaba de ser una
intuición, sin el respaldo de datos experimentales convincentes. En la “Encyclopedia of Genetics”, se define
evolución como “el proceso mediante el cual, según unos individuos se diferencian gradualmente
de otros al irse reproduciendo, los organismos cambian en otros nuevos a lo largo del tiempo”. El
diccionario de la RAE, en su 22ª edición, define la evolución (biológica) como "el proceso constante de
transformación de las especies a través de cambios producidos en sucesivas generaciones". El Diccionario
del Español Actual (edición de 1999) la define como "cambio gradual y progresivo de las especies a lo largo
de sucesivas generaciones".
Este concepto de evolución es el que está en el imaginario popular, pero no debe ser confundido con la
Teoría General de la Evolución, ó evolución tal y como se entiende en ámbitos científicos, que es la
teoría que intenta explicar los mecanismos que dan lugar a evolución. La Teoría de la Evolución arranca de
las observaciones de Darwin, publicadas en ―El origen de las especies‖, y del descubrimiento de las leyes
138
GENÉTICA HUMANA
de la herencia por Mendel, a finales del siglo XIX. Darwin usó inicialmente la expresión “descent with
modification” para indicar que pequeños cambios heredados de una generación a la siguiente podían
explicar la transformación de unas especies en otras. Pero en tiempos de Darwin todavía no se habían
descubierto los principios de la Genética, por lo que no se podían describir los mecanismos que producían
esos cambios ni cómo se heredaban de una generación a la siguiente. La gran intuición de Darwin fue que el
principal mecanismo por el que opera la evolución es la selección natural, aunque no pudo demostrarlo
experimentalmente por las razones apuntadas. El redescubrimiento de las leyes de Mendel en el año 1900 y
la elaboración de la genética de poblaciones en las primeras décadas del siglo XX dieron lugar a la Teoría
Sintética de la Evolución en torno a 1940. Posteriormente, los datos aportados por la biología molecular y la
biología del desarrollo han completado y matizado algunos aspectos de la Teoría General.
Por tanto, actualmente la evolución se define en términos científicos como el proceso mediante el cual
una población de individuos adquiere cambios que son heredados a generaciones sucesivas. Por
ejemplo, podemos citar la definición de evolución que propone Douglas J. Futuyma en su libro Evolutionary
Biology (Sinauer Associates, 1986): "Biological evolution (...) is change in the properties of populations of
organisms that transcend the lifetime of a single individual. The ontogeny of an individual is not considered
evolution; individual organisms do not evolve. The changes in populations that are considered evolutionary
are those that are inheritable via the genetic material from one generation to the next." Es decir, la
evolución biológica es el resultado de los cambios, pequeños o grandes, en los tipos y frecuencias de
alelos existentes en una población de individuos, ya que esos cambios son transmitidos a las
generaciones siguientes.
Es interesante ver con un poco más de detalle el desarrollo histórico de las ideas que han dado lugar al
concepto moderno de evolución. En las primeras décadas del siglo XX, como hemos visto, Hardy y
Weinberg establecieron las bases de la genética de poblaciones. Los genetistas de principios de siglo
pensaban que los alelos dominantes deberían ir desplazando poco a poco a los alelos recesivos de la
población, hasta reemplazarlos por completo. Hardy (matemático) y Weinberg (físico) demostraron
matemáticamente que esto no tenía por qué ser así, sino que -en determinadas condiciones- las frecuencias
genotípicas deberían mantenerse estables y depender exclusivamente de las frecuencias alélicas. En los
años posteriores, Ronald Fisher, J.B.S. Haldane y Sewall Wright desarrollaron estas ideas y elaboraron
los conceptos que dieron lugar a la genética de poblaciones. Fisher, creador de la estadística moderna y del
concepto de varianza, aportó entre otras muchas cosas lo que se conoce como el teorema fundamental
de la selección natural: el cambio en la eficacia biológica (fitness) depende de la varianza genética aditiva
(en otras palabras, a mayor variación en la población, mayor capacidad adaptativa). Sewall Wright, por su
parte, hizo más hincapié en los efectos del tamaño poblacional, desarrollando el concepto de deriva genética
y proponiendo la existencia de paisajes adaptativos. Todas estas ideas fueron sistematizadas y
popularizadas por T. Dobzhansky, que en 1937 publicó “Genetics and the Origin of Species”. En este
libro se exponía una teoría unificadora que explicaba de modo razonablemente satisfactorio las leyes por las
que opera la evolución, la Teoría Sintética o “síntesis moderna”. En torno a 1970 surgieron nuevas
hipótesis para explicar aspectos evolutivos concretos, de manera que la Teoría Sintética fue matizada y
ampliada para dar lugar a lo que hoy llamamos Teoría General de la Evolución.
Todo lo anterior sirve para subrayar la idea que se ha expuesto al principio de este capítulo: la evolución
es fundamentalmente un fenómeno que afecta a la constitución genética de una población (el
―acervo genético‖, es decir, el conjunto de alelos que están presentes en una población) y sus cambios en
el tiempo. Por tanto, es natural que la evolución deba ser estudiada con un enfoque eminentemente
genético y utilizando las metodologías propias del análisis genético. No se puede afrontar el estudio de la
evolución sin comprender todos los conceptos explicados en la sección dedicada a la Genética de
CAPÍTULO 12: LOS GENES EN LAS POBLACIONES
139
Poblaciones. Los métodos cuantitativos de análisis de la variabilidad genética y de la selección natural son
imprescindibles en cualquier discusión científica en torno a la evolución. De hecho, algunos autores resumen
el proceso evolutivo en una expresión sencilla pero llena de significado: "los genes mutan, los individuos
son seleccionados, las poblaciones evolucionan".
Explicación actual del proceso evolutivo y sus limitaciones
El
proceso
evolutivo
se
divide
habitualmente
en
tres
fases:
microevolución,
especiación
y
macroevolución. La primera se refiere a los cambios relativamente pequeños que surgen en una población
de individuos de una misma especie, y es la más fácil de observar y de estudiar experimentalmente. La
especiación es el proceso por el que una especie da lugar a otra u otras mediante un proceso ramificado
(cladogénesis) o lineal (anagénesis). Macroevolución se refiere a los cambios observados durante largos
periodos de tiempo, que dan lugar a organismos muy diversos. La teoría moderna de la evolución explica
satisfactoriamente la microevolución y la especiación, pero los mecanismos de macroevolución son más
hipotéticos y sujetos a discusión, ya que la evidencia experimental es más fragmentaria y menos sólida. Una
idea central a todos estos procesos es el concepto de especie, que en sí mismo es objeto de bastante
controversia. Ernst Mayr fue el taxonomista que más ha contribuido a dar forma al concepto moderno de
especie: en organismos de reproducción sexual, una especie es un grupo de poblaciones naturales que de
hecho o en potencia se reproducen entre sí y que están aisladas reproductivamente de otros grupos
similares. Este concepto de especie, que puede aplicarse con bastante generalidad a los animales pero con
menos fiabilidad a las plantas, ha sido matizado más recientemente por la genética molecular y el concepto
filogenético de especie: teniendo en cuenta características taxonómicas ―basadas en diferencias
morfológicas y funcionales― así como diferencias genéticas cuantificables por métodos moleculares, una
especie es una rama claramente definida en un árbol filogenético.
escarabajos
avispas
avispas
mariposas
escarabajos
moscas
La Figura 12.4 explica qué es un árbol filogenético.
mariposas
moscas
La teoría de la evolución explica satisfactoriamente cómo se producen la microevolución y la especiación.
Una idea central en estos procesos, ya presente en la definición original de especie, es el aislamiento: para
que pueda surgir una especie nueva, parte de la población original ha de quedar aislada del resto de los
individuos de esa población. De hecho, los ejemplos mejor documentados de especiación se han verificado
en condiciones de aislamiento: por ejemplo, hay evidencias de especiación especialmente intensa en
archipiélagos, en los que es frecuente encontrar situaciones de aislamiento geográfico de poblaciones.
140
GENÉTICA HUMANA
Cuando dos poblaciones de una especie quedan separadas reproductivamente por razones geográficas,
seguirán rumbos evolutivos distintos con el paso del tiempo, tanto si los ambientes a los que están
sometidas son distintos o no. Este tipo de especiación se llama especiación alopátrica, y es el más fácil
de explicar y para el que se han encontrado más ejemplos en la naturaleza. Por el contrario, dos
poblaciones pueden diverger sin estar aisladas geográficamente, fenómeno que se conoce como
especiación simpátrica. Aunque ésta última es más difícil de explicar y está menos documentada, hay
algunos ejemplos en plantas.
El proceso de especiación es explicado por la teoría moderna de la evolución utilizando los conceptos de
variabilidad, selección natural y deriva genética. El requisito necesario para que haya microevolución y
especiación es la presencia de variación genética. Si no existe variación, no puede haber evolución. Como
hemos visto, ya Fisher había postulado que la variación genética es directamente proporcional a la velocidad
con la que opera la selección adaptativa. Al explicar los principios de la Genética de Poblaciones hemos visto
que la mutación es el principal mecanismo por el que aumenta la variación genética, mientras que la
selección natural habitualmente disminuye la variabilidad existente en la población, aunque en algunos
casos la mantiene (selección a favor de heterocigotos y equilibrio polimórfico estable). En general, en el
caso de dos poblaciones aisladas sometidas a condiciones ambientales distintas, la principal fuerza
microevolutiva será la selección. El coeficiente de selección y la eficacia biológica (fitness) permiten predecir
la magnitud de los cambios en las frecuencias alélicas con las sucesivas generaciones.
La teoría moderna de la evolución también permite predecir que dos poblaciones en condiciones de
aislamiento geográfico sufrirán evolución aunque no estén sometidas a presiones ambientales diferentes.
Sewall Wright fue el primero en predecir que si el tamaño poblacional es pequeño, las frecuencias alélicas
pueden cambiar rápidamente por deriva genética aleatoria, sin estar determinadas por la selección
natural. Un mecanismo frecuente de especiación es el aislamiento de una población pequeña que contiene
un pequeño grupo de los alelos presentes en la población original de partida (efecto fundador). En estas
condiciones, la deriva genética puede fijar rápidamente ciertos alelos en la población y producir evolución
sin selección. El papel de la deriva genética en la evolución adquirió especial protagonismo tras los trabajos
de Motoo Kimura en 1968. Durante los años precedentes, los avances en biología molecular habían hecho
posible, por primera vez, cuantificar las diferencias genéticas que se observan entre especies distintas
definidas por el concepto clásico de especie. Estas comparaciones confirmaron que los grupos taxonómicos
se correspondían extraordinariamente bien con los grupos filogenéticos derivados de la comparación de
secuencias de ADN. Kimura observó que la mayor parte de los cambios moleculares en el ADN eran
―neutros‖ desde el punto de vista de la selección, ya que afectan a nucleótidos que no alteran la secuencia
de aminoácidos de la proteína codificada. El descubrimiento de que los genomas de mamíferos están
formados en su mayor parte por ADN no-codificante, así como la presencia de numerosos polimorfismos
silenciosos y selectivamente neutros ha supuesto un respaldo de la teoría neutral de la evolución, que
así complementó la Teoría Sintética prevalente hasta los años 70. La teoría neutral hace predicciones
importantes, ya que postula que la gran mayoría de las mutaciones son neutras y, por tanto, la tasa de
cambio evolutivo (a nivel molecular) viene determinada exclusivamente por la tasa de mutación,
independientemente del tamaño de la población. Esto introdujo el concepto de ―reloj molecular‖, tan
importante en los estudios actuales de evolución molecular. Por otra parte, la teoría neutral también predice
que la probabilidad de fijación de un alelo en la población dependerá exclusivamente del tamaño de la
misma. Estas predicciones se han confirmado en bastantes casos, aunque actualmente la teoría neutral se
ha modificado para incluir los efectos de alelos deletéreos sometidos a selección débil.
Dado que la teoría sintética explicaba satisfactoriamente la microevolución y la especiación, hasta los años
70 era común aceptar que la macroevolución sería el resultado de estos mismos mecanismos operando
CAPÍTULO 12: LOS GENES EN LAS POBLACIONES
141
durante grandes periodos de tiempo. Este modelo de pequeños cambios graduales a lo largo del tiempo se
conoce como gradualismo, y supone que las especies están constantemente evolucionando a una
velocidad lenta. En 1972, Stephen Jay Gould y Niles Eldredge propusieron la hipótesis del equilibrio
puntuado, para intentar explicar el hecho de que el registro fósil muestra que muchas especies han estado
durante millones de años básicamente sin cambios y en poco tiempo sufrieron transformaciones drásticas.
Según estos autores y otros paleontólogos no es necesario que la evolución actúe constantemente, porque
muchas especies están bien adaptadas y no necesitan cambiar si no se alteran las condiciones ambientales.
Es precisamente en periodos de cambios ambientales bruscos (glaciaciones, sequías, cambios en el clima o
en los recursos alimenticios, depredadores, etc.) cuando la selección natural puede favorecer variedades
que estaban presentes en la población en baja frecuencia, dando lugar a cambios adaptativos rápidos.
Por otro lado, los estudios de evolución molecular, sobre todo en la comparación de genomas, han mostrado
que muchos genes reguladores y genes implicados en el desarrollo embrionario están muy conservados en
la naturaleza. En concreto, la biología del desarrollo estudia los genes responsables de los patrones
corporales, la polaridad, las extremidades y la organogénesis. Los genes implicados en estos procesos son
extraordinariamente similares entre especies evolutivamente distantes, lo que ha llevado a generar una
nueva disciplina llamada biología del desarrollo evolutiva ("evo-devo", del inglés evolutionary
developmental biology). La idea que se extrae de estos análisis es que pequeños cambios en genes clave,
que regulan la expresión de un número elevado de genes distintos, puede producir alteraciones
morfológicas importantes en un periodo corto de tiempo.
En esta misma línea, los estudios comparativos de los genomas de distintas especies muestran que la
duplicación de genes, la duplicación de genomas y los reordenamientos cromosómicos han sido
frecuentes en diversos momentos evolutivos. Susumu Ohno publicó en 1970 el libro “Evolution by gene
duplication”, proponiendo la idea de que la duplicación de genomas ha sido una de la fuerzas evolutivas que
han permitido crear complejidad y aumentar la variación genética. Aunque en esos años no había mucha
evidencia experimental para apoyar esta hipótesis, Ohno postuló que los cambios macroevolutivos no
pueden explicarse por la acción lenta de la selección sobre la variedad alélica presente en la población, sino
que es necesario que haya suficiente redundancia en el genoma para que la selección pueda actuar por
separado sobre distintas copias de los mismos genes. Esa redundancia se habría alcanzado mediante
duplicaciones genómicas parciales o totales. Los estudios moleculares de familias y superfamilias de genes,
y la reciente secuenciación de genomas completos han ido confirmando algunas de las predicciones de
Ohno. Hoy en día se acepta que grandes segmentos de los genomas de eucariotas están formados por
regiones duplicadas y que la mayor parte de las familias génicas han surgido por duplicación y divergencia
separada de las distintas copias, o incluso por duplicaciones genómicas completas. La comparación de
familias de genes muestra que, en general, los genes ortólogos (copias de un gen en especies distintas)
tienen mayor homología entre sí que los genes parálogos (copias duplicadas de un gen dentro de una
misma especie), lo cual sugiere que la duplicación inicial es muy antigua. En cuanto a la duplicación de
genomas, se ha sugerido que durante la evolución de los vertebrados han tenido lugar dos duplicaciones
genómicas (hipótesis 2R), ya que muchos genes importantes (genes homeobox, genes del complejo
mayor de histocompatibilidad, etc.) tienen una sola copia en invertebrados pero 3 ó 4 copias en
vertebrados. Los análisis más recientes del genoma humano muestran la existencia de muchos más genes
duplicados de los que cabría esperar por azar, y cuando se compara con los genomas de Drosophila y de C.
elegans parece que hubo al menos una duplicación genómica completa entre invertebrados y vertebrados.
En el caso concreto de los mamíferos, los genomas analizados en los últimos años permiten constatar la
presencia de gran cantidad de reordenaciones cromosómicas, de mayor o menor tamaño. Esto se ve
especialmente bien al comparar genomas de especies muy similares: por ejemplo, si se alinean los genomas
de primates, se observa que la sintenia es casi total, aunque varias translocaciones e inversiones dan lugar
142
GENÉTICA HUMANA
a los 46 autosomas del chimpancé frente a los 44 de la especie humana. Al comparar especies más
separadas, como humano y ratón, los bloques de sintenia son más pequeños y están más dispersos (hay
342 bloques de un tamaño promedio de unas 10 Megabases cada uno). Esto sugiere que ambos genomas se
han originado a partir de un genoma ancestral mediante complejos eventos de duplicación, inversión y
translocación.
La Figura 12.5 muestra la organización de los genes homeobox en humanos y
en Drosophila.
Como conclusión, parece bastante claro que la historia evolutiva de la vida del planeta es tremendamente
complicada. Aunque los mecanismos básicos, sobre todo los que originan microevolución y especiación, son
bastante bien comprendidos, los cambios macroevolutivos son más difíciles de analizar. Diferentes especies
han evolucionado a distintas velocidades, en respuesta a factores ambientales muy cambiantes y a
interacciones complejas con otras especies. Estos factores han propiciado, además, la extinción de la
inmensa mayoría de las especies, por lo que el cuadro general macroevolutivo es fragmentario y no es fácil
proponer explicaciones satisfactorias. En cualquier caso, la teoría sintética, que explicaba cambios
pequeños, ha sido matizada y completada por aportaciones importantes como la teoría neutral de Kimura, la
teoría del equilibrio puntuado y la hipótesis de Ohno. Con estas aportaciones, se ha rebajado algo la
importancia de la selección natural gradual en los cambios macroevolutivos y en cambio se tiende a dar
más importancia a alteraciones genómicas o a cambios ambientales bruscos que pueden haber provocado
fases de evolución acelerada. Sobre los cambios adquiridos durante estos periodos, la selección habría
proporcionado el ―ajuste fino‖ adaptativo.
La conciliación de la teoría moderna de la evolución con las convicciones filosóficas o religiosas de los
individuos no debería ofrecer problemas, al tratarse de ámbitos del conocimiento diferentes. La mayor parte
de los problemas han surgido cuando uno de esos ámbitos ha intentado invadir el otro. En el ámbito
protestante anglosajón, especialmente en los Estados Unidos, se originó un movimiento llamado
creacionismo al advertir que la teoría de la evolución estaba siendo utilizada para atacar los fundamentos
de las creencias religiosas de los ciudadanos. Las disputas entre creacionistas y evolucionistas son todavía
hoy muy acentuadas en ese país; por desgracia, algunos intentos recientes de deslegitimar ideas propias del
ámbito filosófico-teológico en nombre de la ciencia no han ayudado en absoluto a conciliar ambas visiones.
Un ejemplo muy claro fue la publicación en 1986 de ―El relojero ciego‖ por Richard Dawkins. En ese libro
el autor se propone refutar, recurriendo al mecanismo de la evolución y en particular a la selección natural,
el "argumento del diseño" que había sido propuesto por el teólogo protestante William Paley en 1802.
Obviamente, este planteamiento traspasa los límites de la ciencia experimental, ya que ésta responde a
preguntas sobre mecanismos biológicos pero no puede responder a argumentos teológicos ni a preguntas
sobre las causas primeras y el origen ontológico del mundo material; estas cuestiones pertenecen más al
ámbito de la filosofía y escapan al propio método experimental. En cualquier caso, la publicación de ese libro
dio lugar a una fuerte respuesta que cristalizó en un movimiento que hoy se conoce como “Diseño
Inteligente”, una reformulación moderna de la quinta vía de Tomás de Aquino (como lo era también, en el
fondo, el argumento del diseño de Paley). El Diseño Inteligente intenta utilizar la ciencia actual (sobre todo
a nivel molecular, proponiendo el concepto de "complejidad irreductible") para demostrar la existencia de un
diseño en la naturaleza, y por tanto la existencia de un ser inteligente creador de dicho diseño. Nuevamente
nos encontramos ante un intento de utilizar la ciencia con fines que no son los suyos, ya que el argumento
del diseño inteligente, aunque basado en observaciones de la naturaleza, es básicamente un argumento de
carácter filosófico más que científico. La particular situación de la sociedad americana, ha hecho que el
debate en torno al Diseño Inteligente y su posible inclusión en las escuelas (en las asignaturas de ciencias
CAPÍTULO 12: LOS GENES EN LAS POBLACIONES
143
naturales) sea especialmente agrio y haya llegado a las instancias políticas del país. Por suerte, los círculos
científicos son cada vez más conscientes de la magnitud del problema, y estamos asistiendo a grandes
avances en todo lo que rodea a las relaciones entre conocimiento científico y convicciones filosóficas
personales.
En la Figura 12.6 se puede leer un artículo de opinión acerca de las relaciones
entre ciencia y fe.
En este sentido, un editorial de la revista Nature en abril de 2005 decía: …"scientists would do better to
offer some constructive thoughts of their own. For religious scientists, this may involve taking the time to
talk to students about how they personally reconcile their beliefs with their research. Secular researchers
should talk to others in order to understand how faiths have come to terms with science. All scientists
whose classes are faced with such concerns should familiarize themselves with some basic arguments as to
why evolution, cosmology and geology are not competing with religion. When they walk into the lecture hall,
they should be prepared to talk about what science can and cannot do, and how it fits in with different
religious beliefs". Estas frases indican ciertamente una nueva sensibilidad hacia las creencias religiosas de
los científicos, y un intento de mantener las conclusiones de las ciencias experimentales dentro del ámbito
que les es propio.
Un magnífico ejemplo reciente en el que se pone en práctica el consejo del párrafo citado, es la publicación
de “The language of God: a scientist presents evidence for belief”, escrito por Francis Collins. El autor es un
genetista de gran reputación, por haber identificado el gen responsable de la fibrosis quística y por haber
dirigido el Proyecto Genoma Humano. En este libro, Collins describe su trayectoria intelectual personal hacia
la fe en un Dios personal origen del Universo, creador también del mecanismo evolutivo para generar
diversidad.
Además, en Internet se pueden encontrar varios sitios de asociaciones de científicos creyentes, como la
American Scientific Affiliation (www.asa3.org) o Christians in Science (www.cis.org.uk), que ilustran
muy bien cómo el conocimiento científico y las creencias religiosas de los individuos ofrecen dos visiones del
mundo que no son opuestas, sino que se armonizan y complementan mutuamente.
144
GENÉTICA HUMANA
CAPÍTULO 13: CITOGENÉTICA
145
D. PATOLOGÍA GENÉTICA
Consta de 8 temas en los que se aborda el núcleo principal de esta asignatura: los
mecanismos genéticos de las enfermedades, el diagnóstico de las altraciones
genéticas y el cálculo de los riesgos de transmisión a la descendencia.
Capítulo 13. Citogenética
El estudio de los cromosomas humanos. El fenómeno de no disyunción
meiótica y sus implicaciones. Anomalías del número de los cromosomas.
Anomalías estructurales de los cromosomas.
El estudio de los cromosomas humanos
La citogenética constitucional se ocupa del análisis de los cromosomas en células que representan la línea
germinal del individuo (habitualmente linfocitos de sangre periférica), y se llama así para distinguirla de los
estudios citogenéticos sobre poblaciones celulares concretas que no representan la constitución genética de
todo el individuo (células somáticas, por ejemplo las células de un tumor). La citogenética constitucional
refleja, por tanto, la estructura cromosómica que ha sido heredada y que, a su vez, se transmitirá a la
descendencia.
La citogenética clásica se basa en la creación y análisis del cariotipo, que es la presentación ordenada de
los cromosomas cuando se hacen visibles en metafase. Hasta los años 50 se creía que los humanos
teníamos 48 cromosomas y que el sexo dependía del número de cromosomas X, como sucede en
Drosophila. En 1956 se determinó el número exacto de cromosomas de la especia humana, y en 1959 ya
se habían identificado las anomalías cromosómicas características de los Síndromes de Down, Turner y
Klinefelter. Esto se debió a mejoras técnicas que permitieron cultivar leucocitos de sangre periférica
(estimulando el crecimiento en cultivo con fitohemaglutinina y mitógenos), detener el ciclo celular
específicamente en metafase (utilizando sustancias como colchicina) y realizar tinciones específicas del ADN.
En 1968 Caspersson introdujo las bandas Q, y en 1971 se introdujeron las bandas G, que son el método
más utilizado para generar cariotipos.
El método habitual de cariotipado incluye la adición de un mitógeno (habitualmente fitohemaglutinina) a una
suspensión de linfocitos, tras lo cual se cultivan las células durante 48-72 horas; cuando hay suficiente
número de células, se detiene el ciclo celular en mitosis utilizando colchicina, de modo que todas las células
se habrán parado en metafase (momento en que los cromosomas se hacen visibles). El tratamiento con una
solución hipotónica rompe las células y separa los cromosomas, tras lo cual se procede a la fijación de la
muestra. A continuación se aplican distintas tinciones, que producen patrones de bandas característicos en
los distintos cromosomas. En el método de bandas Q, el primero en aparecer históricamente, los
cromosomas se tiñen con un colorante fluorescente con afinidad por regiones ricas en adeninas y timinas, lo
cual produce unas bandas características en los cromosomas cuando se observan con luz ultravioleta. El
método de bandas G consiste en someter las preparaciones a una digestión suave con tripsina antes de
146
GENÉTICA HUMANA
teñirlas con Giemsa, un colorante con afinidad por el ADN; cuando se analizan las preparaciones al
microscopio de luz, se observan unas bandas oscuras (bandas G) separadas por unas bandas claras. Para
teñir los cromosomas según el método de bandas R se someten las preparaciones a un tratamiento de
calor en solución salina antes de la tinción con Giemsa, lo cual produce un patrón de bandas claras y
oscuras que es justamente el inverso al que se obtiene con el método de bandas G. Esto es así porque el
tratamiento por calor hace que se desnaturalicen las regiones ricas en adeninas y timinas, por lo que las
bandas R oscuras corresponden a las bandas G claras. El método de bandas C se utiliza para teñir la
heterocromatina constitutiva (centrómeros), y consiste en la tinción con Giemsa tras la desnaturalización en
una solución saturada de hidróxido de bario.
En conjunto, utilizando estos métodos, y otros que son menos utilizados, se pueden ver cuatro tipos
principales de estructuras:

bandas de heterocromatina constitutiva (bandas C) que corresponden a las regiones que
permanecen condensadas durante la interfase.

bandas de eucromatina, formando un patrón de bandas claras y oscuras alternas a lo largo de todo
el cromosoma; se ven como bandas G, R ó Q.

regiones organizadoras del nucleolo, correspondientes a las regiones cromosómicas donde residen
los genes del ARN ribosomal; se tiñen con una tinción especial de plata.

quinetocoros, las estructuras centroméricas que aparecen en mitosis y meiosis a las que se unen
los microtúbulos del huso; se tiñen con tinciones especiales que usan anticuerpos específicos.
Los patrones de bandas G que definen cada cromosoma humano se publican periódicamente en el
International System for Cytogenetics Nomenclature (ISCN), mostrando distintas resoluciones: desde 350550 bandas por cariotipo cuando se estudian células en metafase, hasta 850 bandas por cariotipo cuando se
analizan células en prometafase. Los cromosomas (22 pares de autosomas más los cromosomas sexuales X
e Y) se ordenan en parejas de cromosomas homólogos, cada uno de los cuales tiene a su vez las dos
cromátides que resultan de la replicación del ADN en la fase S previa, aunque en ocasiones las dos
cromátides están pegadas y no se distinguen al microscopio. La forma de ordenar los cromosomas responde
a un convenio (París, 1971) y se lleva a cabo teniendo en cuenta el tamaño del cromosoma y la
posición del centrómero, asignando a cada uno un brazo corto (p) y un brazo largo (q). Así se pueden
distinguir cromosomas metacéntricos (ambos brazos de la misma longitud), submetacéntricos (con el
brazo p más corto que el brazo q) o acrocéntricos (cuyo brazo corto está formado por ADN satélite con
ADN ribosomal en el centro). Así, el cromosoma 1 es el de mayor tamaño, y el cromosoma 21 el más
pequeño. Teniendo en cuenta todas estas característica, el cariotipo humano se divide en varios
grupos (que van del grupo A hasta el grupo G), con los cromosomas sexuales X e Y formando un grupo
aparte.
La
Figura
13.1
explica
la
nomenclatura
de
las
regiones
y
bandas
cromosómicas, y muestra un ejemplo de cariotipo convencional con bandas
G.
Además de las técnicas convencionales de bandeo, hoy contamos con una serie de técnicas que se engloban
bajo una nueva disciplina llamada Citogenética Molecular, que combina la citogenética clásica con la
hibridación específica de sondas marcadas con fluorocromos (FISH = Fluorescence In Situ Hybridisation).
La técnica de FISH, muy utilizada hoy en día, consiste en la hibridación de sondas específicas con
cromosomas metafásicos, que previamente han desnaturalizados como en cualquier reacción de hibridación.
CAPÍTULO 13: CITOGENÉTICA
147
Aunque inicialmente se utilizaban preparaciones de metafases, también se puede hacer FISH directamente
en núcleos interfásicos, lo que permite detectar anomalías numéricas o estructurales específicas
(utilizando sondas específicas) incluso en poblaciones celulares que no pueden dividirse o que no producen
buenas metafases (células fijadas e incluídas en parafina, por ejemplo). Algunas variantes de la técnica de
FISH incluyen el llamado pintado cromosómico (painting), que permite resaltar un cromosoma concreto,
incluyendo los fragmentos del mismo que se hayan translocado a otras posiciones. Igualmente, la técnica de
SKY (Spectral Karyotyping) consiste en el pintado de cada cromosoma con un color distinto, gracias a
combinaciones de fluorocromos y técnicas interferométricas en la detección de la fluorescencia emitida. A
pesar de su complejidad y alto coste, el SKY-FISH es una técnica valiosísima para detectar pequeñas
alteraciones cromosómicas que, de otra forma, pasarían totalmente desapercibidas. Otra variante es la
técnica de CGH (Comparative Genomic Hybridisation, Hibridación Genómica Comparativa), que permite
detectar ganancias o pérdidas de material genético en un ADN prueba cuando se compara con un ADN de
referencia, y es muy utilizada en la búsqueda de regiones cromosómicas amplificadas o delecionadas en
tumores.
Los videos de la Figura 13.2 muestran distintos ejemplos de técnicas de
citogenética molecular.
El ISCN también es responsable de unificar la nomenclatura para la descripción de cariotipos normales o
alterados. Las reglas básicas más importantes que hay que conocer son las siguientes:

Se especifica en primer lugar el número total de cromosomas, seguido de los cromosomas sexuales y,
si las hay, las alteraciones que se encuentren. Estos datos van separados por comas, sin espacios antes
ni después de la coma. Por ejemplo, el cariotipo de un varón normal se expresaría como "46,XY".

Los individuos denominados "mosaicos" (es decir, aquellos que tienen dos ó más constituciones
cromosómicas distintas) se describen separando cada constitución cromosómica por una barra "/".

Las alteraciones que estudiaremos en este capítulo se describen utilizando abreviaturas apropiadas. Por
ejemplo,
"del"
significa
deleción,
"dup"
duplicación,
"inv"
inversión,
"ins"
inserción,
"t"
translocación, "i" isocromosoma, "r" cromosoma en anillo. Después de cada una de estas alteraciones
se indican los cromosomas implicados (entre paréntesis) y a continuación las regiones implicadas (en
otro paréntesis distinto).

Las ganancias o pérdidas de cromosoma completos se indican con el signo + ó  antes del número
correspondiente al cromosoma implicado.
Anomalías del número de los cromosomas
Las anomalías cromosómicas (cromosomopatías) son un tipo muy importante de patología genética. Los
fenotipos provocados por las anomalías cromosómicas son muy variables, pero podemos describir algunas
características generales que se cumplen en casi todos:

se asocian a retraso en el desarrollo y retraso mental, frecuentemente con talla baja.

se asocian con alteraciones faciales y otras anomalías menores de cabeza y cuello.

se asocian a determinadas malformaciones congénitas (defectos cardíacos, malformaciones en
manos y pies, etc) que suelen seguir un patrón específico de cada síndrome.
148
GENÉTICA HUMANA
Clásicamente las anomalías cromosómicas se dividen en dos grandes grupos: aquellas debidas a un número
anormal de cromosomas (anomalías numéricas) y las debidas a alteraciones en la estructura de los
cromosomas (anomalías estructurales). Por lo que respecta a las anomalías numéricas, en conjunto
tienen una frecuencia en torno al 0,5% de nacidos vivos (1/200). A continuación se detalla la frecuencia
de las anomalías numéricas más frecuentes:
Frecuencia de anomalías cromosómicas numéricas (por 1000 nacidos vivos):
trisomía 21
1.5
trisomía 18
0.12
trisomía 13
0.07
XXY
1.5
45,X
0.4
XYY
1.5
Las anomalías numéricas pueden ser de dos tipos:
Euploidías: constituciones cromosómicas con un número total de cromosomas que es múltiplo del número
haploide (23 en humanos). Si un cariotipo normal es diploide (46 cromosomas, 2n), es posible encontrar
anomalías numéricas debidas a la presencia de otros múltiplos del número haploide: tri-ploidías (3n, 69
cromosomas), tetra-ploidías (4n, 92 cromosomas), etc. La nomenclatura aprobada de estos transtornos
consiste en especificar el número total de cromosomas seguido de coma (sin espacios) y el conjunto de
cromosomas sexuales. Por ejemplo, una triploidía en una mujer se representaría como 69,XXX. La
triploidía es el tipo más frecuente de poliploidía (se estima que un 2% de todas las concepciones son
triploides), pero la gran mayoría son letales y son muy raras en nacidos vivos. Las causas más frecuentes
son la dispermia (fecundación de un óvulo por dos espermatozoides), la fusión de un óvulo con un cuerpo
polar (diginia), ó un error meiótico en la gametogénesis que dé lugar a un gameto diploide. La tetraploidía
(4n) aparece normalmente en las células somáticas de algunos tejidos, y es el resultado de una
reduplicación endomitótica, en la que hay dos duplicaciones cromosómicas con una sola división celular.
Aneuploidías: son alteraciones numéricas que no afectan a todo el complemento cromosómico, sino
solamente a un par cromosómico. En ocasiones, la alteración no afecta a todo el cromosoma, sino sólo a un
segmento cromosómico, en cuyo caso suelen denominarse aneusomías segmentarias. Las aneuploidías
son alteraciones con distintos grados de severidad en cuanto a los fenotipos que provocan, aunque en
general se puede decir que son más graves cuando afectan a un autosoma que a un cromosoma sexual, y
que son más severas las pérdidas de cromosomas (monosomías) que las ganancias de cromosomas
(trisomías). La ausencia completa de un par cromosómico (nulisomía) es incompatible con la vida. A
continuación veremos algunas de las aneuploidías más frecuentes en patología humana:

Trisomía 21 (47,XX ó XY,+21), Síndrome de Down. Es la causa más común de retraso mental
congénito. Presentan una facies característica (en la que destacan las fisuras palpebrales oblicuas,
hipoplasia de la nariz y macroglosia), estatura baja, defectos cardíacos y retraso mental variable.
Algunos casos son mosaicos 46,XX/47,XX,+21 (tienen dos poblaciones celulares, una con la trisomía y
otra normal) y son clínicamente más leves. Alrededor de un 5% de los casos de Síndrome de Down se
deben a una translocación robertsoniana entre los cromosomas acrocéntricos 14 y 21. El resto de los
casos -la gran mayoría- son debidos a no-disyunción durante la gametogénesis, de los cuales el 75%
son no-disyunciones en meiosis I. Por las razones que se explicarán más adelante, existe una mayor
incidencia de Síndrome de Down en mujeres de edad más avanzada. Así, aunque la incidencia global de
CAPÍTULO 13: CITOGENÉTICA
149
la enfermedad es de 1 por cada 650 nacidos vivos, las tasas de incidencia desglosada por tramos de
edad materna muestran una clara tendencia, sobre todo a partir de los 30 años de edad:
Edad materna
Riesgo de S. de Down
15
1:1578
20
1:1528
25
1:1351
30
1:909
35
1:384
40
1:112
El riesgo de recurrencia de la enfermedad en una pareja joven (la probabilidad de tener un segundo
hijo con Síndrome de Down) está en torno al 1%. No hay suficiente información sobre el riesgo de
transmisión de la enfermedad en individuos que son mosaicos.
La Figura 13.3 muestra el cariotipo de un Síndrome de Down.
Recientemente se ha visto, en un modelo murino, que el funcionamiento de una familia de factores de
transcripción llamados NFATc (Nuclear Factor of Activated T cells) es muy importante en el desarrollo
de esta enfermedad. Estos factores de transcripción regulan la expresión de genes durante el
desarrollo, y viajan del núcleo al citoplasma (y viceversa) mediante una fosforilación que es regulada
por dos genes que están en el cromosoma 21, en la región crítica que causa el Síndrome de Down. En
presencia de un número alto de copias de estos genes, los NFAT no funcionan adecuadamente y sus
genes diana se expresan débilmente, lo que podría causar algunas de las manifestaciones fenotípicas de
la enfermedad.

Trisomía 18 (47,XX ó XY,+18), Síndrome de Edwards. La prevalencia de esta aneuploidía es de 1/6000
nacidos vivos. Es la anomalía cromosómica que se encuentra más frecuentemente en abortos
espontáneos. Muy pocos casos sobreviven el primer año de vida.

Trisomía 13 (47,XX ó XY,+13), Síndrome de Patau. Tiene una prevalencia de 1/10.000 nacidos vivos.
Son rasgos característicos de esta enfermedad las fisuras orofaciales, polidactilia y microftalmia. El 90%
de los nacidos vivos fallecen en el primer año de vida.

Monosomía X (45,X), Síndrome de Turner. Los pacientes con S. de Turner sólo tienen un solo
cromosoma X (es la única monosomía viable en humanos). La frecuencia de la enfermedad es 1/5000
niñas recién nacidas. Las enfermas son fenotípicamente mujeres, siendo sus características más
comunes la talla corta, malformaciones (cuello corto, pecho en coraza) e inmadurez sexual por
disgenesia gonadal. No suele estar asociado a retraso mental. Se piensa que esta enfermedad se
debe que el cromosoma X contiene genes que escapan a la inactivación fisiológica de uno de los
cromosomas X, y que por tanto se necesitan las dos copias para un correcto funcionamiento celular. Al
existir un solo cromosoma X en los sujetos con S. de Turner, estos genes estarían en dosis génica
mitad de la normal (una sola copia), originando las alteraciones propias de la enfermedad. También
existen individuos con S. de Turner que son mosaicos 46,XX/45,X o tienen anomalías estructurales del
cromosoma X (como el isocromosoma del brazo largo). Los individuos con esta enfermedad suelen
padecer abortos espontáneos.
150

GENÉTICA HUMANA
Síndrome de Klinefelter, 47,XXY. Esta aneuploidía se encuentra con una frecuencia de 1/1000 nacidos
varones. Son individuos con talla alta, hipogonadismo y ginecomastia, inteligencia ligeramente inferior
a lo normal. Hasta un 15% de los enfermos muestran mosaicismo. De los raros casos de enfermos con
S. de Klinefelter que tienen cariotipos 48,XXXY y 49,XXXXY se deduce que a mayor número de
cromosomas X "extra", la gravedad de la enfermedad y el retraso mental son también mayores.
El fenómeno de no disyunción meiótica
Se estima que hasta un 5% de todas las concepciones humanas son aneuploides, aunque la gran
mayoría de éstas terminan en abortos espontáneos y no se reconocen clínicamente. La incidencia de
aneuploidías varía según el periodo gestacional, tal y como se muestra en la siguiente Tabla:
Frecuencia de anomalías cromosómicas en:
Mortinatos (20 a 40 semanas de gestación):
4%
Abortos espontáneos detectables clínicamente (7 a 8 semanas de gestación):
35%
Abortos espontáneos NO detectables clínicamente (antes de 7 semanas):
20%
También se ha visto que hasta un 20% de los oocitos humanos son portadores de aneuploidías, mientras
que sólo el 1-2% de los espermatozoides tienen alteraciones en el número de cromosomas. De estos datos
se concluye que la segregación de cromosomas durante la meiosis —especialmente durante la
oogénesis— es un proceso que no se lleva a cabo de modo totalmente eficaz en humanos. La segregación
cromosómica incorrecta origina alteraciones cromosómicas en el embrión, pero la mayoría de estos
embarazos se pierden porque esas alteraciones son letales en estadíos iniciales del desarrollo embrionario.
Como se recordará, los cromosomas homólogos y las cromátides hermanas se separan en cada una de las
dos divisiones que tienen lugar durante la meiosis. Las aneuploidías se producen por una separación
incorrecta (no-disyunción) en una de las dos divisiones meióticas, aunque lo más frecuente es la falta de
disyunción en meiosis I por la presencia de un sobrecruzamiento mal posicionado. Se ha visto en el Capítulo
2 que una gonia diploide da lugar a cuatro gametos haploides ya que, tras la replicación del ADN en el
gonocito primario, la primera división meiótica genera células con un solo cromosoma de cada par (aunque
cada uno tiene todavía dos cromátides hermanas); la segunda división meiótica separa las cromátides
hermanas a cada uno de los gametos. Teniendo este esquema en mente, es fácil comprender que los
efectos de una no-disyunción en la meiosis I serán distintos a los efectos de una no-disyunción
en la meiosis II. Si la no-disyunción ha tenido lugar en meiosis I, se producirán 2 gametos nulisómicos
(sin ninguna copia de ese cromosoma) y dos gametos disómicos (con dos copias), los cuales llevarán una
copia de cada cromosoma homólogo presente en la célula progenitora (es decir, son heterodisómicos). Por
el contrario, si la no-disyunción sucede en la meiosis II, tendremos 2 gametos normales, un gameto
nulisómico y un gameto disómico con dos copias idénticas (isodisómico).
El video de la Figura 13.4 muestra los tipos de gametos resultantes de la nodisyunción en meiosis I o en meiosis II.
CAPÍTULO 13: CITOGENÉTICA
No disyunción en Meiosis I
151
No-disyunción en Meiosis II
Como se ha mencionado más arriba, está comprobado que la mayoría de los errores de disyunción
tienen lugar durante la oogénesis, especialmente en meiosis I. Esto se ha relacionado con el hecho
de que la gametogénesis femenina ―al contrario de lo que sucede en la espermatogénesis― experimenta
una meiosis I especialmente larga (comienza en el periodo fetal y culmina individualmente con cada
ovulación, entre 15 y 45 años después). Este hecho podría aumentar la sensibilidad del oocito a sufrir nodisyunciones. Estudios recientes muestran que la aparición de no-disyunciones tiene que ver con la
posición de los quiasmas durante la recombinación, de modo que los quiasmas que están demasiado
cerca de los centrómeros o de los telómeros favorecen los errores en la separación de los cromosomas
homólogos. Actualmente se piensa que la maquinaria que procesa los quiasmas va perdiendo eficacia con
los años, por lo que los oocitos con quiasmas en localizaciones "subóptimas" originan errores de disyunción
con mayor facilidad en oocitos "viejos" que en oocitos "jóvenes". Esto encaja bien con el hecho de que las
aneuploidías son más frecuentes al aumentar la edad materna.
Respecto a las causas moleculares de la no-disyunción, es razonable pensar que la des-regulación de los
procesos de recombinación, cohesión y separación de cromátides sea responsable, en buena
medida, de la segregación deficiente de los cromosomas a las células hijas. Como se recordará, durante la
meiosis I cada pareja de quinetocoros hermanos es arrastrada hacia un extremo del huso; si ha habido un
sobrecruzamiento, la cohesión debida a la presencia de los quiasmas se opondrá a la fuerza de los
microtúbulos que tienden a separar los dos cromosomas homólogos. Por tanto, es fundamental que la
cohesión entre cromosomas homólogos se mantenga a nivel de los centrómeros mientras los homólogos se
separan, para que las cromátides se mantengan unidas hasta la llegada de la meiosis II. En el Capítulo 2 se
han esbozado los mecanismos moleculares que regulan estos procesos, por lo que la alteración de
cualquiera de las proteínas implicadas puede provocar la aparición de aneuploidías. Esto se ha visto
corroborado por la detección de alteraciones en estos mecanismos en cáncer, que en la mayoría de los
casos se asocia con aneuploidías muy marcadas. Se ha visto, por ejemplo, que en tumores colorrectales
aneuploides hay mutaciones en el gen BUB1, que codifica una proteína del complejo proteico que regula la
cohesión en los quinetocoros. Además, se ha demostrado que una securina denominada PTTG (pituitary
tumour transforming gene) tiene propiedades de oncogén: muestra niveles altos de expresión en tumores
pituitarios y es un factor de mal pronóstico en cáncer de colon, ya que los niveles de PTTG correlacionan con
la invasividad del tumor. Todo esto pone de manifiesto que los genes implicados en los mecanismos que
regulan la segregación de cromátides hermanas durante la división celular son muy importantes para
mantener una correcta segregación cromosómica durante la mitosis, y es lógico pensar que lo mismo se
puede aplicar a la meiosis.
152
GENÉTICA HUMANA
Anomalías estructurales de los cromosomas
Existen muchos posibles tipos de alteraciones en la estructura de los cromosomas. Si la alteración da lugar
a la pérdida ó ganancia de material genético, se habla de alteraciones desequilibradas; en el caso
contrario, se denominan equilibradas. Las alteraciones equilibradas no suelen producir patología en el
individuo que las lleva, aunque determinadas alteraciones equilibradas pueden favorecer la formación de
aneuploidías en la descendencia, como se verá más adelante. Se piensa que las alteraciones estructurales
se producen por errores durante la meiosis, bien porque los cromosomas homólogos no se alinean
correctamente ó bien porque se produce emparejamiento entre secuencias homólogas que pertenecen a
cromosomas distintos. La recombinación entre cromosomas que no están correctamente alineados ó entre
cromosomas que no son homólogos tiene como resultado la generación de duplicaciones, deleciones,
inversiones, translocaciones, isocromosomas ó cromosomas en anillo.
La
Figura
13.5
muestra
distintos
tipos
de
anomalías
cromosómicas
estructurales.
Las inversiones son alteraciones estructurales intracromosómicas debidas a la aparición de dos roturas
dentro de un mismo cromosoma y la inversión completa del segmento que queda entre ellas. Hay
básicamente dos tipos de inversiones: pericéntricas (el centrómero del cromosoma queda incluido dentro
de la región invertida) o paracéntricas (la región invertida está en uno de los brazos cromosómicos, sin
incluir el centrómero). Habitualmente, las inversiones son equilibradas. Sin embargo, pueden originar
problemas cuando se forman los bivalentes entre cromosomas homólogos durante la recombinación en
miosis: al formarse el bivalente, el cromosoma con la inversión puede formar un bucle para que todas las
regiones queden alineadas con las correspondientes secuencias del cromosoma homólogo. Si tiene lugar
un sobrecruzamiento dentro del bucle de una inversión paracéntrica, se originará un cromosoma
acéntrico (sin centrómero) y otro dicéntrico (con dos centrómeros). En anafase, cada centrómero del
cromosoma dicéntrico migrará hacia cada uno de los polos, formándose un puente que se romperá al final
de anafase. El resultado será la generación de gametos con diversas deleciones y/o duplicaciones,
dependiendo del punto donde se rompa el puente anafásico. En cambio, si el sobrecruzamiento se
produce dentro de una inversión pericéntrica, los dos cromosomas resultantes llevarán un solo
centrómero pero tendrán duplicada ó delecionada la región distal a los límites de la inversión. Por tanto,
aunque un individuo portador de una inversión sea fenotípicamente normal, es importante recordar que en
su
descendencia
pueden
aparecer
individuos
con
reordenaciones
des-equilibradas
(deleciones
o
duplicaciones), aunque no es posible calcular la probabilidad de que esto suceda.
La Figura 13.6 contiene un video en el que se muestran esquemáticamente
los
tipos
de
gametos
que
se
generan
por
una
recombinación
entre
cromosomas homólogos, cuando uno de ellos lleva una inversión.
Los isocromosomas son cromosomas en los que ambos brazos son idénticos, y se originan por la pérdida
total de uno de los brazos y la duplicación del otro brazo; el resultado final es un cromosoma simétrico. Los
isocromosomas de cromosomas autosómicos son habitualmente letales; el isocromosoma más frecuente en
humanos es el del cromosoma X, , que aparece en algunos sujetos con Síndrome de Turner dando lugar a
cariotipos 46,X,i(Xq).
CAPÍTULO 13: CITOGENÉTICA
153
Las deleciones pueden ser terminales (afectan a la región terminal o telomérica de un cromosoma) o
intersticiales. Si son lo suficientemente grandes como para ser visibles citogenéticamente suelen ser graves.
Por ejemplo, la deleción denominada 46,XY,del(5p), en la que se pierde un fragmento terminal del brazo
corto del cromosoma 5, es causa del Síndrome de Cri-du-chat (maullido de gato); la deleción terminal
46,XY,del(4p) da lugar al Síndrome de Wolf-Hirschhorn. Desde que se ha utilizado la técnica de FISH, se
ha conseguido delimitar mejor las deleciones cromosómicas, e incluso se ha podido identificar algunos
síndromes debidos a deleciones que no eran visibles por citogenética convencional (cariotipo de bandas G).
Por esta razón, estas enfermedades se denominan "Síndromes por Microdeleción", aunque también se
les llama aneusomías segmentarias o síndromes de genes contiguos (ya que en las pequeñas deleciones se
pierden habitualmente varios genes). La siguiente tabla recoge algunos de los principales síndromes por
microdeleción, indicando la región delecionada y el gen (o genes) implicados en esas deleciones:
Síndrome
Deleción (genes)
Wolf-Hirschhorn
4p16.3
Williams-Beuren
7q11.23 (elastina)
WAGR (Wilms, aniridia, genital defects, growth retardation)
11p13 (WT1 y PAX6)
Prader-Willi/Angelman
15q11-q13
Rubinstein-Taybi
16p13.3 (CBP)
Miller-Diecker lisencefalia
17p13.3 (LIS1)
Smith-Magenis
17p11.2 (KER)
Alagille
20p12.1-p11.23 (Jagged1)
DiGeorge (CATCH22)
22q11.21-q11.23
Las translocaciones consisten en el intercambio de fragmentos cromosómicos entre cromosomas no
homólogos. Hablamos de translocaciones recíprocas cuando ambos cromosomas son donantes y
receptores de material cromosómico, de modo que parte de un cromosoma pasa a otro y, a su vez, parte de
éste pasa al primero. Las translocaciones recíprocas desequilibradas, en las que se ha perdido o ganado
material genético durante el proceso de formación de la translocación, son habitualmente causa de
enfermedad. Por el contrario, las translocaciones equilibradas no son necesariamente patogénicas, a no
ser que los puntos de rotura en alguno de los cromosomas interrumpan algún gen concreto. En cambio, un
individuo portador de una translocación recíproca equilibrada puede tener descendencia con alteraciones
cromosómicas estructurales. Esto se debe a que, durante la meiosis, los cromosomas translocados se
alinean con los dos cromosomas normales respectivos, dando lugar a la formación de un tetravalente en vez
de un bivalente. La segregación de los cromosmas del cuadrivalente a cada gameto puede realizarse según
un patrón adyacente o alternante: mientras la segregación alternante puede generar gametos normales
o equilibrados, la segregación adyacente da lugar a gametos nulisómicos o disómicos, que causarán
monosomías o trisomías en el embrión.
La Figura 13.7 explica la segregación de cromosomas con una translocación
recíproca equilibrada.
Otro tipo importante de translocación son las llamadas translocaciones Robertsonianas (también
denominadas "fusión céntrica"), en las que dos cromosomas acrocéntricos se fusionan por sus centrómeros.
Al igual que en las translocaciones equilibradas, los individuos portadores de una translocación
robertsoniana no suelen padecer ninguna patología, ya que llevan dos copias completas de cada uno de los
154
GENÉTICA HUMANA
cromosomas implicados (la copia normal más la copia presente en el cromosoma con la translocación). En
cambio, en la descendencia sí que pueden aparecer monosomías o trisomías de los segmentos implicados.
Esto se debe a que durante la meiosis el cromosoma con la fusión céntrica se apareará con los dos
cromosomas homólogos correspondientes, formando un trivalente en vez de un bivalente. El resultado de
esta estructura, dependiendo de cómo sea la segregación, será la formación de gametos normales
(segregación alternante) o de gametos nulisómicos o disómicos (segregaciones adyacentes), que a
su vez provocarán monosomías o trisomías en la descendencia.
En la Figura 13.8 se muestra la segregación de cromosomas con una
translocación robertsoniana.
CAPÍTULO 14: MUTACIONES SIMPLES COMO CAUSA DE ENFERMEDAD
155
Capítulo 14. Mutaciones simples como causa de enfermedad.
Características generales de las mutaciones. Mutaciones simples: tipos y
nomenclatura. Potencial patogénico de las mutaciones en el ADN codificante
y en el ADN no-codificante intragénico e intergénico.
Características generales de las mutaciones
Ya se ha mencionado que el genoma humano está sujeto a variación genética y que esta capacidad de
introducir modificaciones genéticas heredables supone una ventaja para la especie, al permitir la adaptación
a condiciones ambientales cambiantes. Sin embargo, la existencia de una tasa mutacional basal tiene el
peligro de introducir cambios genéticos deletéreos en un individuo o una familia concreta, provocando
enfermedades heredables. Por tanto, de modo general podemos decir que la presencia de mutaciones en
una población está sujeta al juego entre la tasa mutacional basal (la velocidad a la que se producen) y la
presión selectiva frente a cada una de las mutaciones, de forma que aquellas mutaciones que sean muy
agresivas no se extenderán al resto de la población tan rápidamente como mutaciones con efectos
fenotípicos más leves. Por ejemplo, ya hemos visto en otro capítulo que las aberraciones cromosómicas
(trisomías, monosomías, etc) son raras pero casi siempre patogénicas, mientras que los polimorfismos de
secuencia —variantes alélicas que no causan ninguna enfermedad— son mucho más frecuentes. En cierto
modo, lo mismo sucede con los distintos tipos de mutaciones: aquellas que provocan alteraciones graves del
producto proteico, que están sometidas a una fuerte presión selectiva en su contra, suelen ser menos
frecuentes que mutaciones con efectos más leves.
Antes de estudiar todos los posibles tipos de mutaciones, será de gran utilidad recordar la estructura y
procesamiento de un gen típico, porque esto nos ayudará a comprender cómo se clasifican y sus efectos.
Recordemos que en el ADN genómico se puede distinguir una región 5' no-traducida (desde el inicio de la
transcripción hasta el ATG que señala el inicio de la traducción), exones separados por intrones (que
contienen las secuencias consenso de ayuste GT-AG), el codón de terminación (TAA en la figura) y la
región 3' no traducida, que incluye la señal de poliadenilación (AATAAA). La transcripción del gen y la
posterior maduración del transcrito primario dan como resultado el ARNm maduro, que después es
traducido en la proteína correspondiente. En general, los distintos tipos de mutaciones que se encuentran
en un gen pueden ser tanto mutaciones simples (deleciones, inserciones o substituciones que afectan a
un nucleótido o a unas pocas bases) o reordenamientos grandes (deleciones parciales o reordenamientos
que dan lugar a duplicaciones o deleciones del gen).
En la Figura 14.1 se muestran esquemáticamente los distintos tipos de
mutaciones que se pueden encontrar en un gen, y cómo afectan a su función.
A lo largo de este capítulo, veremos con detalle los distintos tipos de mutaciones que provocan
enfermedades humanas.
Mutaciones simples: tipos y nomenclatura
156
GENÉTICA HUMANA
A
C
Las substituciones simples de un nucleótido por otro se denominan transiciones ó
transversiones, según provoquen el cambio de purina por purina ó pirimidina por
pirimidina (transiciones), o el cambio de una purina por pirimidina ó viceversa
(transversiones). En el esquema adjunto, las transiciones se representan por flechas
T grises y las transversiones por flechas negras. Como puede apreciarse, las
G
transversiones deberían ser el doble de frecuentes que las transiciones (8 posibles
transversiones por 4 posibles transiciones). En cambio, al analizar las mutaciones presentes en
enfermedades humanas encontramos que las transiciones son más frecuentes. Esto es debido a que —
en general— las transiciones provocan una alteración menos severa del producto proteico, por lo que la
presión selectiva contra ellas es menor. Además, el dinucleótido CpG suele estar metilado en la citosina, y la
des-aminación espontánea de una metil-citosina da lugar a una transición del tipo CT. Como este
cambio tiene lugar con relativa frecuencia en el genoma de mamíferos, esto también contribuye a la alta
frecuencia de transiciones que se observa en estas especies.
Potencial patogénico de las mutaciones en el ADN codificante
Cuando las substituciones simples tienen lugar en ADN codificante, sus efectos pueden ser de varios
tipos:
a)
substituciones silenciosas (llamadas sinónimas, sin cambio de sentido): no cambian ningún
aminoácido en la proteína codificada, debido a que la mutación cambia un codón por otro codón
sinónimo. Como son biológicamente neutras, no están sujetas a selección y por tanto son
relativamente frecuentes en ADN codificante. Habitualmente se producen por cambios en la tercera
base de un triplete, ya que es habitualmente este nucleótido el que varía entre codones sinónimos.
b)
substituciones no-sinónimas (el cambio de nucleótidos origina un cambio en la capacidad codificante
del ARNm). Según el cambio introducido, podemos distinguir:

Mutaciones con cambio de sentido (mis-sense, en inglés), cuando el cambio de nucleótidos
provoca un cambio de aminoácidos. Se habla de cambio conservativo cuando ambos aminoácidos
(el original y el nuevo) pertenecen al mismo grupo bioquímico, o no conservativo cuando
pertenecen a grupo distintos. Estos últimos son —en general— más graves, puesto que alteran la
estructura de la proteína en mayor grado. También son importantes los cambios que afectan a
Cisteínas y Prolinas, que son aminoácidos muy importantes en el mantenimiento de la estructura
terciaria de la proteína.

Mutaciones sin sentido (non-sense), cuando un codón que codifica un aminoácido se convierte en
un codón de parada (UAA, UAG ó UGA). Estas mutaciones dan lugar a proteínas truncadas en la
región C-terminal, además de disminuir la estabilidad del ARNm. En general son muy graves, por lo
que son menos frecuentes que las mutaciones con cambio de sentido.
En la figura 14.2 se muestran distintos tipos de mutaciones puntuales y
su efecto sobre el producto proteico.

Mutaciones con ganancia de sentido, cuando la mutación transforma un codón de parada en un
codón codificante. Son casos infrecuentes, entre los que destaca el de una variante de la
CAPÍTULO 14: MUTACIONES SIMPLES COMO CAUSA DE ENFERMEDAD
157
hemoglobina denominada "Hemoglobina Constant Spring" (variante alélica HBA20001),
originada por el cambio de UAA (codón de parada) a CAA. Esto tiene como resultado la adición de
30 aminoácidos a la secuencia de la hemoglobina alfa-2, que se hace más inestable y provoca una
enfermedad de la sangre llamada alfa-talasemia.
En
la
figura
14.3
se
esquematiza
la
mutación
que
origina
la
hemoglobina “Constant Spring”.
c) Deleciones e inserciones de uno ó de unos pocos nucleótidos pueden introducir o eliminar
aminoácidos sin cambiar la pauta de lectura, siempre que se trate de inserciones o deleciones de tres
nucleótidos (ó múltiplos de tres). Cuando se insertan o delecionan nucleótidos en un número que no es
múltiplo de tres, se produce un frameshift (desplazamiento del marco de lectura) con un cambio
muy importante en la estructura proteica. Para comprender las mutaciones con cambio del marco de
lectura, es importante repasar este concepto, ya presentado en el Capítulo 1.
En la Figura 14.4 se recuerda el concepto de marco de lectura (frameshift)
y se muestra su desplazamiento por efecto de distintos tipos de
inserciones.
LOS
LOS
LOS
LOS
QUE
QaU
Qab
Qab
VES
EVE
UEV
cUE
SON
SSO
ESS
VES
LOS
NLO
ONL
SON
QUE
SQU
OSQ
LOS
SON
ESO
UES
QUE
...
N..
ON.
SON
FRAMESHIFT +1
FRAMESHIFT +2
INSERCIÓN 3bp (2 aa)
Al igual que las mutaciones sin sentido, las mutaciones con cambio del marco de lectura provocan
alteraciones importantes del producto proteico y, por tanto, están sometidas a mayor presión selectiva, por
lo que suelen ser menos frecuentes en ADN codificante que las mutaciones sinónimas. Además, los
cambios del marco de lectura suelen introducir codones de parada prematuros, por lo que habitualmente se
producen también proteínas truncadas que ven muy comprometida su funcionalidad.
Otro mecanismo por el que puede perderse o recuperarse el marco de lectura es la edición del ARN,
fenómeno que ya se explicó en el Capítulo 1. Una variedad curiosa de edición del ARN surge en unas ratas
que tienen una deleción de un solo nucleótido en el gen de la vasopresina, haciendo que desarrollen
hipertensión arterial. Estas ratas mejoran espontáneamente al envejecer, debido a un proceso de edición
del ARNm mediante el cual se pierde el dinucleótido GA en un motivo GAGAG de ese mismo gen. La
deleción de estos dos nucleótidos, añadida a la deleción de un nucleótido que ya tenían, hace que se
recupere el marco de lectura original y que se produzcan mayores niveles de vasopresina funcional.
Recientemente, se ha encontrado un motivo GAGAGA en el gen de la proteína precursora de
amiloide- (-APP) y se ha visto que tiene lugar una edición similar, con deleción de dos bases en el
ARNm y la interrupción del marco de lectura que produce una proteína truncada y es causa de algunos
casos de enfermedad de Alzheimer en humanos.
Potencial patogénico de las mutaciones en el ADN no-codificante
158
GENÉTICA HUMANA
Las mutaciones simples que tienen lugar en ADN no codificante intragénico (es decir, en intrones y
regiones no traducidas) son silenciosas, excepto cuando afectan a las secuencias de consenso para ayuste
(splicing) de los extremos 5' y 3' de los intrones. En este caso, podemos encontrar:

Mutaciones que destruyen una de las secuencias de consenso. Si esto tiene lugar en ausencia de
secuencias de ayuste crípticas (escondidas) y en intrones pequeños, habitualmente se lee todo el
intrón, que queda así incluido en el ARNm. Esto hace que se añadan aminoácidos a la proteína,
aunque también es posible que se introduzca un cambio en el marco de lectura y se altere toda la
secuencia de aminoácidos a partir de ese punto.

Si la mutación que destruye la secuencia de ayuste tiene lugar en presencia de una secuencia de
ayuste críptica en ese mismo intrón, el exón vecino será más largo; por el contrario, si la secuencia
críptica está en el exón cercano a la mutación, dicho exón será más corto.

En ocasiones, las mutaciones que destruyen una de las secuencias consenso de ayuste hacen que se
"salte" el exón adyacente (lo que en inglés se denomina skipping del exón), dando lugar a una
proteína que ha perdido un cierto número de aminoácidos, aunque también es posible que produzca un
cambio en el marco de lectura. El exón afectado será el 5’ o el 3’ a la mutación, según se destruya el
GT ó el AG de un intrón, respectivamente.
En la Figura 14.5 se muestran distintas mutaciones que afectan a las
secuencias consenso de ayuste.
Exon 1
Exon 2
Intron 1
ARNnp U1
GUC CAUUCA
CAG GUAAGU
…UGAC…..….[C/U] [C/U][C/U][C/U] [C/U] [C/U]UG AG
Un caso especial de este tipo de mutaciones es la transición AG en posición +3 de la secuencia
donante de ayuste, una alteración que está asociada con desarrollo de enfermedades en −al menos−
8 genes humanos. Como se recordará, la secuencia donante de ayuste (la del extremo 5' del intrón) es
CAPÍTULO 14: MUTACIONES SIMPLES COMO CAUSA DE ENFERMEDAD
159
complementaria a la secuencia del ARN nuclear pequeño U1 (U1snRNA), cuya presencia es necesaria
para que se lleve a cabo el proceso de ayuste. Los dos primeros nucleótidos del intrón son siempre GT
(complementarios a CA en el U1snRNA), y el tercer nucleótido de la secuencia de ayuste suele ser
adenina (complementaria al uracilo correspondiente en el U1snRNA). En cambio, las posiciones +4 a
+6 no siempre son perfectamente complementarias. De hecho, la adenina en posición +3 dota de
cierta flexibilidad a los nucleótidos de las posiciones +4 a +6, que pueden ser discordantes de la
secuencia del U1snRNA y aún así son capaces de funcionar correctamente como secuencia donante de
ayuste. En cambio, si alguna de las posiciones +4 a +6 no son complementarias a la secuencia del
U1snRNA, una mutación en la posición +3 tiene como resultado la falta de funcionalidad de esta
secuencia de ayuste, con lo que se salta el exon precedente.
La figura 14.6 muestra una mutación de la posición +3, que provocará el
skipping del exon 16 del gen COLQ.

Finalmente, existen mutaciones que, sin afectar directamente a secuencias consenso de ayuste, pueden
activar un lugar críptico en un intrón y producir un exón más grande y posiblemente un cambio en
el marco de lectura.
La figura 14.7 muestra la creación de secuencias de ayuste crípticas
intrónicas.
Como regla general, podemos afirmar que las mutaciones que afectan al mecanismo de ayuste son más
raras que las substituciones, aunque algunos genes tienen una estructura exónica que les otorga una
tendencia especial a sufrir mutaciones de este tipo: se trata, habitualmente, de genes con muchos
intrones y con exones pequeños, como sucede con los genes que codifican cadenas del colágeno (COL7A1,
por ejemplo, tiene 118 exones), o bien genes con muchos sitios crípticos de ayuste (como es el caso del gen
de la beta-globina).
Como se explicaba en el Capítulo 1, recientemente se ha descrito que ciertas secuencias exónicas o
intrónicas pueden actuar como potenciadores o silenciadores del ayuste. Estas secuencias se denominan
ESE (Exonic Splicing Enhancers) ó ESS (Exonic Splicing Silencers) cuando están en exones; ISE ó
ISS cuando están en intrones. A estas secuencias se unen proteínas llamadas proteínas SR (las que se
unen a los potenciadores de ayuste) o algunas hnRNP (las que se unen a los silenciadores). Por tanto,
estas proteínas regulan el proceso de ayuste y determinan si un exón va a estar presente en el transcrito
final o, por el contrario, se va a saltar. Es importante tener en cuenta que algunas mutaciones en estos
motivos, aunque sean silenciosas porque no cambian el aminoácido (o porque se localizan en intrones),
pueden sin embargo tener efectos sobre el mensajero, haciendo que un exón se pierda y alterando así la
estructura de la proteína o rompiendo el marco de lectura. De hecho, en algunos genes (ATM, NF1) se
ha estimado que el 50% de las mutaciones que originan enfermedades afectan a regiones que
cambian el patrón de ayuste sin cambiar la secuencia de aminoácidos. Un buen ejemplo para ilustrar
esta situación es una enfermedad llamada Atrofia Muscular Espinal, debida a deleciones y/o mutaciones
del gen SMN1. Cerca de este gen hay un gen parálogo casi idéntico llamado SMN2, en el que un cambio C
 T modifica el patrón de ayuste (sin cambiar la secuencia de aminoácidos) y hace que el exón 7 se pierda,
dando lugar a una proteína truncada no funcional. De todas formas, un pequeño porcentaje de las
moléculas siguen un ayuste normal (con el exón 7) y producen proteína normal a partir del gen SMN2. Por
tanto, aunque no haya ninguna copia funcional de SMN1 (como sucede en enfermos con atrofia muscular
espinal) la enfermedad tiene distinta gravedad según el número de copias de SMN2 presentes. De hecho, se
160
GENÉTICA HUMANA
piensa que esta circunstancia podría utilizarse para corregir la sintomatología de los pacientes con Atrofia
Muscular Espinal.
La figura 14.8 muestra la diferencia de ayuste entre los genes SMN1 y SMN2.
SMN1
6
8
SMN1
CAGACAA
SMN2
6
8
UAGACAA
SMN1∆7
Otro tipo de mutaciones del ADN no-codificante intragénico son las que afectan a la señal de poliadenilación, que se encuentra en la región no traducida 3’ de un gen. Estas mutaciones pueden originar
proteínas defectuosas llevar a la degradación del ARNm. Por ejemplo, una mutación en la señal de
poliadenilación del gen que codifica la hemoglobina alfa-2 (alelo HBA2 0024) convierte la señal AATAAA
en AATGAA, con lo que el ARNm no se poli-adenila correctamente, el ARNm se degrada y se desarrolla la
enfermedad alfa-talasemia por ausencia de cadenas de hemoglobina alfa-2.
Finalmente, las substituciones en el ADN no codificante intergénico, serán silenciosas excepto
cuando afectan a elementos reguladores de la expresión génica (promotores, potenciadores, etc) o a otros
elementos necesarios para el correcto procesamiento del ARNm. Por ejemplo, mutaciones que afectan a la
“Región de Control del Locus” de las alfa- y beta-globinas (un conjunto de potenciadores situados unas
40−60 kb en dirección 5' de los genes respectivos) provocan unas enfemedades denominadas talasemias,
debidas a la síntesis deficiente de globinas.
Nomenclatura general de mutaciones: Llegados a este punto, interesa estudiar la nomenclatura
recomendada para describir los distintos tipos de mutaciones que hemos visto hasta ahora. Aunque las
recomendaciones van cambiando con el paso de los años, a continuación se resumen las reglas principales:
1. Describir la mutación utilizando la numeración de nucleótidos de la secuencia genómica (g.) o del ADNc
(c.) o la numeración de la secuencia de aminoácidos, según los casos. Siempre la Adenina del codón de
iniciación ATG se toma como posición +1, de forma que el nucleótido anterior es la posición -1.
2. Describir las substituciones de nucleótidos según el esquema general:
Intervalo + secuencia antigua + tipo de cambio + secuencia nueva.
Utilizar una flecha ó el signo ">" para las sustituciones, "del" para deleciones, "ins" para inserciones.
Los rangos se indican con guión bajo (de subrayado) para evitar confusiones con el signo negativo. Las
CAPÍTULO 14: MUTACIONES SIMPLES COMO CAUSA DE ENFERMEDAD
161
combinaciones de dos o más alteraciones se separan con el signo + y se incluyen en corchetes. Algunos
ejemplos:
g.12T>A (Cambio de timina por adenina en el nucleótido 12 de la secuencia genómica)
[6T>C + 13_14del] (Dos cambios en el mismo alelo)
[6T>C] + [13_14del] (Dos mutaciones, una en cada alelo)
14-15insT (Inserción de timina entre dos nucleótidos)
112_117delAGGTCAinsTG (Inserción de TG en vez de AGGTCA, también se podría indicar como
112_117>TG)
3. En repeticiones en tandem, se asigna por convenio el cambio a la última repetición (la que ocupa una
posíción más 3’): por ejemplo, la deleción de un dinucleótido TG en la secuencia ACTGTGTGCC (siendo A el
nucleótido 1991) se describiría como 1997-1998del (ó 1997-1998delTG).
4. La variabilidad en microsatélites se designa contando la posición de la primera repetición. Si la
secuencia del ejemplo anterior fuese polimórfica, se designaría 1993(TG)3-22, para indicar que en
posición 1993 comienza un dinucleótido TG que se encuentra en la población repetido entre 3 y 22 veces.
5. En intrones (cuando no se conoce la secuencia genómica), se señala la posición dentro del intrón con
referencia al exón más cercano (utilizando números positivos comenzando con la G de la secuencia de
ayuste GT donante, y números negativos contando desde la G de la secuencia AG aceptora). Se puede usar
tanto la sigla IVS como sinónimo de ―intrón‖, como la numeración correspondiente a la secuencia del ADNc.
Ejemplos:
IVS3+1G>T ó c.621+1G>T (621 es el último nucleótido del exón 3, luego +1 es la G de la
secuencia donante GT del intrón 3)
IVS6-5C>A ó c.1781-5C>A (1781 es el primer nucleótido del exón 7, luego –1 es la G de la
secuencia aceptora AG del intrón 6, -2 es la A, y así sucesivamente hasta llegar a -5).
6. Para describir substituciones de aminoácidos, se indica el número del aminoácido y el cambio
operado, considerando la metionina iniciadora como +1. Se sigue el esquema general aminoácido
cambiado + rango + aminoácido nuevo.
Se recomienda usar el código de aminoácidos de una letra, aunque también puede utilizarse el de tres
letras, empleando la letra X para indicar un codón de parada. Ejemplos:
R117H (la Arg en posición 117 pasa a His)
G542X (la Gly 542 se convierte en codón de parada)
T97del (deleción de la treonina 97) ó T97_C102del (deleción de los aminoácidos 97 a 102)
T97_W98insLK (inserción de leucina y lisina entre las posiciones 97 y 98, ocupadas por treonina y
triptófano)
162
GENÉTICA HUMANA
CAPÍTULO 15: POTENCIAL PATOGÉNICO DE LAS SECUENCIAS REPETIDAS
163
Capítulo 15. Potencial patogénico de las secuencias repetidas.
Mutaciones en secuencias que están repetidas en tándem. Expansión de
trinucleótidos: neuropatías por expansiones de CAG y enfermedades por
expansión de otros trinucleótidos. Otras enfermedades por expansión de
secuencias
repetidas.
Mutaciones
debidas
a
repeticiones
dispersas.
Desórdenes genómicos.
Además de las mutaciones simples estudiadas en el capítulo anterior, puede haber mutaciones más
complejas que afectan a secuencias repetidas, tanto repeticiones en tandem (mini- y micro-satélites) como
repeticiones dispersas (elementos Alu, LINE, etc).
Mutaciones en secuencias que están repetidas en tándem
Un tipo de mutación que afecta con frecuencia a las repeticiones cortas en tándem de tipo microsatélite es
la expansión o contracción de la repetición. Como ya vimos al estudiar los mecanismos de reparación,
este fenómeno se produce habitualmente por un mecanismo llamado "desemparejamiento por deslizamiento
de cadenas" (slipped-strand mispairing en inglés). Dicho proceso puede tener lugar durante la replicación
del ADN que contiene la repetición, si se da un deslizamiento hacia atrás ó hacia delante de la cadena que
está siendo sintetizada sobre la cadena molde. Este deslizamiento origina un bucle en una de las cadenas,
cuyo resultado final es que la nueva cadena de ADN tendrá una repetición más o una repetición menos que
la cadena original, según el desplazamiento haya sido hacia atrás o hacia delante, respectivamente. Este
mecanismo explica los polimorfismos de longitud de los microsatélites, que ya hemos estudiado al hablar de
estos marcadores en el Capítulo 1.
La Figura 15.1 muestra esquemáticamente el mecanismo de expansión de un
trinucleótido por deslizamiento de una cadena durante la replicación.
Lo importante ahora es darse cuenta de que si la expansión o contracción tiene lugar en la región
codificante de un gen que contiene repeticiones en tandem cortas, el resultado será la aparición de
deleciones de aminoácidos (si se delecionan 3 nucleótidos) ó
141 142 143 144 145
GCC ATT TTT GGC CTT
141 142 143 144 145
GCC ATT TT*G GCC TT
cambios en el marco de lectura (si se delecionan repeticiones de
1, 2, 4 ó 5 nucleótidos). Se presentan a continuación dos
ejemplos de lo dicho. En el cuadro superior observamos, arriba, la
secuencia nativa del gen CFTR (mutado en una enfermedad
llamada "Fibrosis Quística del páncreas"), que contiene una
329 330 331 332 333
CCA CTT GTT GAC CGA
repetición en tandem del nucleótido Timina (hay 5 Timinas
329 330
331
332
CCA CTT G** *AC CGA
fenómeno que acabamos de describir provocará un cambio del
seguidas en los codones 142 y 143). La deleción de una T por el
marco de lectura, como se aprecia en la fila de debajo. En el
cuadro inferior vemos un ejemplo de deleción de un trinucleótido
TTG en la región codificante del Factor IX de la coagulación: la secuencia nativa (fila superior) contiene dos
repeticiones TTG en tandem, de modo que la deleción de una de ellas provoca la deleción de un aminoácido
sin alterar el marco de lectura (fila inferior). Lógicamente, lo mismo que se ha ilustrado aquí con deleciones
puede decirse de las inserciones. Los microsatélites del tipo trinucleotídico pueden además sufrir
164
GENÉTICA HUMANA
expansiones mayores, dando lugar a un grupo de enfermedades conocidas como "enfermedades por
expansión de trinucleótidos". Dada su importancia en patología humana, las estudiamos con más detalle en
el siguiente apartado.
Expansión de trinucleótidos y el fenómeno de anticipación
Hay un grupo de enfermedades debidas a la expansión de repeticiones de trinucleótidos, que tienen una
serie de rasgos en común. El descubrimiento del mecanismo por el que se desencadenan estas
enfermedades ayudó a comprender un fenómeno clínico que se conocía con el nombre de “anticipación”:
la aparición de la enfermedad a una edad cada vez más temprana y de forma más severa en sucesivas
generaciones de una misma familia. Como veremos, la presencia de secuencias trinucleotídicas inestables,
que aumentan de tamaño en cada generación, permitió explicar este fenómeno.
Las enfermedades por expansión de trinucleótidos pueden agruparse en dos grandes categorías: (1)
enfermedades debidas a expansiones cortas (40 a 70 repeticiones) de un trinucleótido CAG localizado en la
región codificante de un gen; y (2) enfermedades debidas a expansiones mayores (desde 50 hasta miles de
repeticiones) de trinucleótidos situados en regiones no codificantes. Como ya hemos comentado, el
mecanismo de expansión más probable es el desemparejamiento por deslizamiento de cadenas, aunque las
grandes expansiones son más fáciles de explicar mediante un mecanismo de reparación por recombinación
homóloga. De todas formas, todavía no se explica bien por qué en estas secuencias se dan muchas más
expansiones que contracciones.
Neuropatías por expansiones de CAG
Las enfermedades del primer grupo tienen como resultado la expansión de un tracto de poliglutaminas
en
la
proteína
codificada
por
el
gen
respectivo,
y
constituyen
un
grupo
de
enfermedades
neurodegenerativas de gran importancia. La siguiente tabla resume las características más importantes
de cada una de estas enfermedades:
Repetición
Normal
Enfermedad
Localización
Efecto
Huntington
CAG
11-34
40-121
ORF (HD)
Ganancia
Smith (Haw-River) (DRPLA)
CAG
7-34
49-88
ORF (DRPLA)
Ganancia
Kennedy (SBMA)
CAG
9-36
38-62
ORF (AR)
Ganancia
SCA1
CAG
6-39
40-82
ORF (SCA1)
Ganancia
SCA2
CAG
15-24
32-200
ORF (SCA2)
Ganancia
SCA3/MJD
CAG
13-36
61-84
ORF (SCA3)
Ganancia
SCA6
CAG
4-20
20-29
ORF (CACNA1A)
Ganancia
SCA7
CAG
4-35
37-306
ORF (SCA7)
Ganancia
SCA17
CAG
25-42
47-63
ORF (TBP)
Ganancia
SCA12
CAG
7-45
55-78
5’UTR?
(PPP2R2B)
?
CAPÍTULO 15: POTENCIAL PATOGÉNICO DE LAS SECUENCIAS REPETIDAS
165
El modo de expansión, en general, es gradual. Así, la inestabilidad va aumentando con el tamaño de la
expansión: por debajo de las 40 repeticiones, la frecuencia de expansiones es baja, pero al llegar a un
rango de 40 a 100 repeticiones la inestabilidad ya es prácticamente del 100%. Además, se observan
diferencias si la transmisión es materna (las repeticiones de la descendencia se distribuyen normalmente
alrededor de la media materna) o paterna (produce repeticiones con una media más alta que la paterna,
con tendencia a aumentar en función de la edad paterna).
El mecanismo patogénico en estas enfermedades se ha atribuido a la expansión de un tracto de glutaminas
en las proteínas implicadas, lo que llevaría al mal plegamiento y/o formación de agregados proteicos que
alteran la función neuronal. En general, se piensa que la expansión produce una ganancia de función, ya
que mutaciones y deleciones que anulan la función de esos mismos genes no dan lugar a la misma
enfermedad que la expansión del trinucleótido. Por ejemplo, la expansión de un trinucleótido CAG en el gen
del receptor de andrógenos da lugar a la Atrofia Muscular Espino-Bulbar (SBMA, Enfermedad de Kennedy),
mientras que las mutaciones de ese mismo gen provocan el Síndrome de feminización testicular. Por otro
lado, la longitud de la expansiones correlaciona con la gravedad de la sintomatología, lo que hace pensar
que estas enfermedades se deben a una ganancia de función con un efecto tóxico que aumenta con el
número de glutaminas que lleva la proteína, probablemente a partir de un umbral de 35-40 residuos.
También se ha demostrado que, para provocar degeneración neuronal, las proteínas mutantes deben
entrar en el núcleo, ya que cuando se envían al citoplasma no se observa efecto patogénico alguno. Esto
sugiere que pueden interaccionar con factores de transcripción ricos en glutamina y alterar la
transcripción de genes necesarios para la supervivencia neuronal. De hecho, se ha demostrado que
la acetilasa de histonas CBP (co-activador transcripcional del que hemos hablado en el capítulo 2) es
secuestrada en presencia de proteínas con tractos de poli-glutaminas, con lo que se altera la expresión de
genes necesarios para la supervivencia neuronal. Dado que las proteínas con tractos de poli-glutaminas
pueden unirse entre sí por interacciones proteína-proteína, otros factores de transcripción con poliglutaminas también podrían quedar secuestrados en estas enfermedades. De hecho, se ha visto
recientemente que el factor de transcripción TAFII130, un componente de TFIID, interacciona con el factor
de transcripción Sp1 a través de regiones con tractos de glutaminas; la presencia de una proteína con
tractos largos de poliglutaminas podría impedir esta interacción y cancelar la expresión de los genes
regulados por estos factores. En el caso concreto de la huntingtina (la proteína codificada por el gen
mutado en la Enfermedad de Hutington) se ha demostrado, por ejemplo, que la presencia de huntingtina
con expansión de glutaminas impide la expresión del gen que codifica el receptor D2 de la dopamina,
mediante un mecanismo como el descrito.
En la Figura 15.2 se esquematiza un posible mecanismo patogénico de la
huntingtina que lleva expansión de un tracto de glutaminas.
Enfermedades por expansión de otros trinucleótidos
El segundo grupo de enfermedades
por expansión de
trinucleótidos
incluye
enfermedades
más
heterogéneas, aunque también se caracterizan por afectar al sistema nervioso. Sus características se
resumen en la siguiente tabla, donde se muestra que la inestabilidad propia del rango de 40-100
repeticiones (llamado en estos casos "premutación") no causa la enfermedad, sino que favorece la
aparición de una expansión explosiva, llegando de golpe hasta varios miles de repeticiones ("mutación
completa"), que ya causa la enfermedad. Esta "explosividad" no se produce cuando la repetición está
166
GENÉTICA HUMANA
interrumpida por un triplete distinto; por ejemplo, algunos alelos del gen FRAXA tienen repeticiones del
trinucleótido CGG que están interrumpidas por el trinucleótido AGG cada 10 repeticiones CGG, y esos alelos
no sufren expansión.
Repetición
Normal
Pre-mutación
Mutación
Localización
Distrofia Miotónica (DM1)
CTG
5-37
50-80?
80-2000+
3’ UTR (DMPK)
X Frágil (FRAXA)
CGG
6-52
59-230
230-2000+
5’ UTR (FMRP)
X Frágil (FRAXE)
GCC
4-35
(35-61)?
200-900
5' UTR (FMR2)
Ataxia Friedreich
GAA
6-32
(35-40)?
200-1700
Intron (FRDA)
SCA8
CTG
16-37
?
107-127
3’ UTR (SCA8)
En estas enfermedades, como regla general, el efecto patogénico es resultado de la pérdida de función de la
proteína ó de la alteración en la función del ARNm, ya que las expansiones están en regiones no
codificantes. En este grupo destacan:

Síndrome del X frágil. Es la causa más frecuente de retraso mental ligado al cromosoma X (un 40%
de los casos) y la causa heredada más frecuente de retraso mental aislado. Inicialmente, esta
enfermedad se detectaba por el cariotipo, que muestra una rotura en Xq27.3 cuando las células se
cultivan en presencia de metrotexato ó en ausencia de folato. Posteriormente, la identificación en 1991
del gen FMR1 reveló la existencia de un gen de 38 kb y 17 exones, con un trinucleótido CGG en una isla
CpG de la region promotora del gen. Fue el primer ejemplo de una enfermedad originada por la
expansión de una repetición de trinucleótidos. Las mutaciones de la región codificante son raras, pero
también provocan la enfermedad cuando implican disminución de la proteína FMRP, lo que sugiere que
la expansión del trinucleótido provoca una pérdida de función. La proteína codificada por el gen es
citoplasmática y se expresa en cerebro (por igual en todos los tipos de neuronas, aunque no se expresa
en células no-neuronales), así como en testículo (en células germinales pero no en células de Sertoli ó
de Leydig). La proteína posee dominios de unión al ARN y dominios de unión a otras proteínas, y se ha
comprobado que se une a su propio mensajero, a un 4% de todos los ARNm de cerebro fetal, y también
a la subunidad 60S de los ribosomas. Podría por tanto entrar en el núcleo, capturar mensajeros y
exportarlos al citoplasma como parte de la maquinaria traduccional, específicamente aquellos
mensajeros que son cruciales para el desarrollo de las dendritas y para la función sináptica en las
neuronas. Curiosamente, se ha visto que la mayor parte de los ARNm que se unen a FMRP forman
estructuras secundarias llamadas “cuartetos-G”, debido a la presencia de Guaninas espaciadas
regularmente; mediante estas estructuras, los mensajeros se unen al dominio RGG (argininaglicina-glicina) de la FMRP. También se ha visto que, en Drosophila, la proteína FMRP forma parte del
complejo de silenciamiento por interferencia de ARN (RISC), lo que abre la posibilidad de que dicho
mecanismo también esté implicado en la fisiopatología del Síndrome del X frágil. Aunque el hallazgo del
gen y la elucidación de la estructura de la proteína todavía no han permitido desvelar completamente el
mecanismo fisiopatológico de la enfermedad, sí han servido para explicar el modo inusual de transmisión
de la misma, que se verá en un capítulo posterior.
La Figura 15.3 muestra la estructura de los cuartetos G.

La distrofia miotónica se puede producir por alteraciones en 2 loci. La forma más frecuente es la
DM1, debida a la expansión del trinucleótido CTG en la región no traducida-3’ del gen DMPK,
CAPÍTULO 15: POTENCIAL PATOGÉNICO DE LAS SECUENCIAS REPETIDAS
167
que codifica una proteín-quinasa. Como la enfermedad se hereda de forma autosómica dominante,
parece que el complejo fenotipo de esta enfermedad (que incluye miotonía muscular, cataratas y
arritmias cardíacas) debe ser el resultado de la alteración de algún proceso celular importante. De
hecho, se ha comprobado que la expansión del trinucleótido CTG en el gen DMPK inhibe la expresión
de un gen vecino llamado SIX5. Se ha visto que los ratones knock-out para el gen DMPK tienen una
arritmia similar a la que se ve en los pacientes con distrofia miotónica, mientras que los ratones knockout para SIX5 sufren unas cataratas que recuerdan a las de los enfermos. La miopatía se produce por la
presencia de ARN con largas expansiones de repeticiones CUG (esto se ha comprobado también en
ratones). La hipótesis más aceptada es que la expansión da lugar a un ARN que es capaz de unirse a
varias proteínas de unión a ARN que regulan el fenómeno del ayuste, alterando su función. Como
resultado, se altera el ayuste correcto de otros ARNm, y de hecho se han identificado más de 10 genes
cuyo ayuste y función está alterada en esta enfermedad. Estos genes incluyen un canal de cloro, el
propio SIX5, el gen de la troponina T, el receptor de la insulina, genes con funciones neuronales, etc.
En conjunto, se piensa que la sintomatología de la enfermedad es el resultado conjunto de la
desregulación de todos estos genes por la presencia de un ARNm con la expansión de CTG.
DMPK

CTG
SIX5
La ataxia de Friedreich, enfermedad autosómica recesiva que no muestra el fenómeno clínico de
anticipación, parece también un buen ejemplo de pérdida de función debida a la expansión, ya que los
sujetos enfermos deben ser homocigotos (tener ambos alelos con la expansión) o heterocigotos
compuestos (un alelo con expansión y el otro alelo con una mutación puntual). El trinucleótido GAA que
sufre la expansión está localizado en una secuencia Alu del primer intrón del gen FRDA, que codifica
una proteína llamada frataxina. Los alelos normales están interrumpidos por la secuencia (GAGGAA)5-9
y no tienen más de 32 repeticiones GAA. La expansión impide la transcripción del gen, al formar un
intrón muy largo con estructuras de triple hélice en el ADN genómico. Los niveles bajos de frataxina
alteran la función mitocondrial, ya que esta proteína es importante en la homeostasis del hierro en la
mitocondria, y dan lugar a una disminución en la producción de energía y a la formación de especies
reactivas de oxígeno.
Otras enfermedades por expansión de secuencias repetidas
Recientemente se ha descrito un tipo de epilepsia mioclónica progresiva de herencia autosómica
recesiva, debida a la expansión de una secuencia de 12 nucleótidos (CCCCGCCCCGCG). Este es el primer
ejemplo de enfermedad por expansión de un minisatélite, que en este caso se encuentra en la región
promotora del gen CSTB (cistatina B, un inhibidor de proteasas). Los alelos normales tienen hasta 3
repeticiones, mientras que sujetos con "premutación" tienen 12 a 17 repeticiones y los enfermos tienen
entre 30 y 75 copias (en total, un tamaño de 360-900 nucleótidos). Un 14% de los individuos con esta
enfermedad tienen mutaciones en la región codificante del gen, por lo que el mecanismo patogénico parece
ser por pérdida de función. De hecho, la presencia de la expansión conduce a disminución de los niveles de
ARNm, probablemente debido a la desorganización del promotor del gen CSTB.
168
GENÉTICA HUMANA
También se ha identificado un nuevo tipo de ataxia espino-cerebelosa (SCA10), de herencia autosómica
dominante. La causa de esta enfermedad reside en la expansión de un pentanucleótido (ATTCT) en el
intrón 9 del gen SCA10. Los individuos normales tienen 10 a 22 repeticiones, mientras que los sujetos con
esta enfermedad tienen alelos entre 500 y 4500 repeticiones. Posteriormente a este hallazgo, se identificó la
primera enfermedad debida a la expansión de un tetranucleótido: la Distrofia Miotónica tipo 2. Los
individuos normales tienen menos de 26 repeticiones CCTG en el intrón 1 del gen ZNF9, mientras que las
expansiones en pacientes van desde 75 a 11.000 repeticiones.
Mutaciones debidas a repeticiones dispersas
Las repeticiones dispersas del genoma humano, estudiadas con detalle en el Capítulo 4, suelen dar lugar a
reordenamientos cromosómicos por un mecanismo denominado "sobrecruzamiento desigual" (en inglés,
UnEqual Cross-over, UEC). Habitualmente, la recombinación homóloga durante la meiosis tiene como
finalidad producir nuevas combinaciones de alelos, ya que se recombinan cromosomas homólogos. El
sobrecruzamiento desigual consiste en la recombinación entre secuencias homólogas pero no-alélicas (es
decir, que tienen homología en su secuencia pero están en localizaciones genómicas diferentes). Tal es el
caso, por ejemplo, de los genes parálogos (miembros de una familia génica, con alto grado de homología
entre ellos) o de las repeticiones dispersas tipo SINE ó LINE (cuyos miembros tienen una secuencia
muy homóloga). Un buen ejemplo que ilustra los efectos del sobrecruzamiento desigual es el mecanismo
que origina varones con cariotipo XX ó mujeres XY (con disgenesia gonadal y disfunción ovárica). Hasta un
30% de los casos de estas patologías son debidos a un sobrecruzamiento desigual entre los genes PRKX y
PRKY, genes homólogos que están cerca de la Región Pseudoautosómica de los cromosomas sexuales X e
Y, respectivamente. Fruto de esta recombinación desigual, el gen SRY —gen que determina el sexo
masculino, situado en el cromosoma Y— acompaña al fragmento telomérico del cromosoma Y que se mueve
al cromosoma X, dando como resultado un cromosoma X que contiene SRY y un cromosoma Y sin SRY. Esto
origina individuos que fenotípicamente son varones a pesar de ser XX, así como mujeres con cariotipo XY.
La Figura 15.4 muestra el proceso de recombinación desigual entre los genes
PRKX y PRKY.
Además, los fenómenos de recombinación desigual son causa frecuente de duplicaciones o deleciones
cuando tienen lugar entre repeticiones no alélicas de gran tamaño con un alto grado de homología, como
son las duplicaciones segmentarias del genoma humano, que ya mencionamos en el capítulo 4.
Habitualmente, esto sucede entre secuencias que pertenecen a cromosomas distintos, pero en ocasiones la
recombinación o sobrecruzamiento desigual también puede tener lugar entre cromátides hermanas. En
este caso se produce el llamado "intercambio desigual entre cromatides hermanas" (en inglés,
UnEqual Sister Chromatid Exchange, abreviado UESCE), que da lugar a alteraciones en ambas cromátides
de un mismo cromosoma: habitualmente se produce una duplicación en una cromátide y una deleción en la
otra.
El video de la Figura 15.5 ilustra el proceso de recombinación desigual entre
secuencias de cromosomas homólogos o de cromátides hermanas.
Otro posible efecto de la recombinación desigual entre secuencias homólogas es la conversión génica entre
ellas. Como hemos visto en un capítulo anterior, durante los procesos de recombinación homóloga se forma
CAPÍTULO 15: POTENCIAL PATOGÉNICO DE LAS SECUENCIAS REPETIDAS
169
un heterodúplex que puede dar lugar a un proceso de conversión génica, de modo que una de las
secuencias se copia a la otra. Habitualmente, la conversión génica tiene lugar entre alelos de un mismo
gen; sin embargo, la recombinación desigual entre dos secuencias no alélicas (un gen y un pseudogen no
funcional, por ejemplo) puede provocar la conversión de la secuencia del gen en la secuencia del
pseudogen, lo que equivaldría a anular la función del gen. Un ejemplo clásico de este mecanismo es la
enfermedad llamada "Hiperplasia Suprarrenal Congénita" (déficit del enzima 21-hidroxilasa). Alrededor
del 75% de los casos de esta enfermedad están provocados por un fenómeno de conversión génica entre
el gen CYP21B (que codifica el enzima) y el pseudogen CYP21A (que no es funcional).
De modo general, hasta ahora hemos considerado que los elementos repetidos que se recombinan
ilegítimamente están en la misma orientación. Puede suceder, sin embargo, que estén invertidos (en
orientaciones contrarias uno respecto del otro). En este caso, la recombinación entre elementos repetidos
dará lugar a la inversión de la región que queda entre las repeticiones, como se verá en un ejemplo del
siguiente apartado.
Desórdenes genómicos
En conjunto, los procesos de recombinación desigual dan lugar a un grupo de enfermedades humanas que
se conocen con el nombre de ―Desórdenes Genómicos‖, y que incluyen –entre otros― los Síndromes por
microdeleción que se han mencionado estudiado en el Capítulo 13. Los Desórdenes Genómicos se pueden
agrupar como sigue:
A. Debidos a deleciones:

Los pacientes con Ictiosis ligada al X tienen una deleción del gen de la sulfatasa esteroidea en
Xp22, por reordenación entre elementos repetidos (separados por 1,9 Mb) que flanquean este gen.

La deleción que produce el Síndrome de Williams-Beuren está originada por recombinación
entre duplicaciones segmentarias que flanquean el gen de la elastina en 7q11, repeticiones que
están separadas por 1,6 Mb.

La causa más frecuente de los Síndromes de Prader-Willi y de Angelman es una deleción de 4
Mb por recombinación desigual entre duplicaciones en 15q11-q13.

La reordenación más frecuente en el cromosoma 22 es la deleción de unas 3 Mb en 22q11.2, que
se encuentra en el 90% de pacientes con Síndrome de Di George ó con Síndrome Cardio-velofacial.

Un caso especial de deleción de secuencias repetidas es la contracción de una serie de
repeticiones en tándem cerca del telómero 4q, que origina una enfermedad llamada distrofia
facio-escápulo-humeral. Recientemente se ha comprendido el mecanismo molecular de dicha
enfermedad. En la región subtelomérica 4q existe un elemento llamado D4Z4 que está repetido en
tándem. Los cromosomas normales tienen entre 10 y 100 repeticiones del elemento. Los
cromosomas ―contraídos‖, que tienen entre 1 y 10 repeticiones, pueden dar lugar a la enfermedad
si además ese cromosoma tiene un satélite beta a continuación de la repetición (lo que se conoce
como variante 4qA); los cromosomas 4q sin el satélite beta no dan lugar a la enfermedad,
aunque tengan sólo 1-10 repeticiones D4Z4 (variante 4qB). Esta contracción desencadena la
enfermedad mediante la des-regulación de genes cercanos a esa región, especialmente por sobreexpresión del gen FRG1.
170
GENÉTICA HUMANA
En la Figura 15.6 se incluyen esquemas de los principales desórdenes
genómicos debidos a deleciones.
Deleción de 1,5 Mb
(5-10%)
4 Mb
Deleción de 3 Mb
(90%)
15q11-q13
Di George (22p)
Prader-Willi/Angelman
B. Debidos a duplicaciones/deleciones: Los reordenamientos entre dos elementos llamados
CMT1A-REP, localizados en 17p12, dan lugar a individuos con la duplicación o con la deleción de la
región comprendida entre ambas repeticiones. Esta región incluye el gen PMP22, que codifica una
proteína de la mielina, y la duplicación o deleción de esta región origina enfermedades dos distintas
(Charcot-Marie-Tooth o Neuropatía Hereditaria con Parálisis por Presión, respectivamente). Las
repeticiones CMT1A-REP tienen un tamaño de unas 30 kb y están a una distancia de 1,5 Mb, de forma
que el sobrecruzamiento desigual entre ellas origina la deleción o duplicación de esa región. Estas
repeticiones tienen una región pequeña (1,7 kb) que es casi totalmente idéntica en todas ellas, y
también contienen un elemento similar al transposón "mariner". Parece que la presencia de éste último
puede favorecer la acción de una transposasa a este nivel y facilitar la recombinación desigual entre
cromátides. Algo similar sucede en el Síndrome de Smith-Magenis, debido a una deleción de unas 5
Mb en 17p11.2. Los individuos con duplicación de esa región tienen un fenotipo distinto.
La Figura 15.7 ilustra el proceso de recombinación desigual que origina las
enfermedades de Charcot-Marie-Tooth y la Neuropatía Hereditaria con
Parálisis por Presión.
C. Debidos a Inversiones: Cuando la recombinación desigual se produce entre repeticiones
invertidas que están en la misma cromátide, a menudo se originan inversiones cromosómicas. Este
fenómeno es especialmente frecuente como causa de Hemofilia A, una coagulopatía debida al déficit
de Factor VIII de la coagulación. El gen que codifica el Factor VIII tiene un elemento llamado int22h
que está repetido dos veces antes del exón 1 y otra vez (en la orientación contraria) en el intrón 22
(entre los exones 22 y 23). Un sobrecruzamiento desigual entre uno de los elementos que están antes
del exón 1 con el elemento del intrón 22 dará lugar a una inversión de toda la región comprendida
entre ambas repeticiones, rompiendo totalmente la capacidad codificante del gen. Este mecanismo es
responsable de un 45% de los casos de Hemofilia A en humanos, lo que subraya la gran importancia de
este tipo de fenómenos en patología humana.
CAPÍTULO 15: POTENCIAL PATOGÉNICO DE LAS SECUENCIAS REPETIDAS
171
La Figura 15.8 muestra el proceso de recombinación desigual que origina
la inversión del gen del Factor VIII, causante de Hemofilia A.
Otro ejemplo de inversión es la que da lugar a la distrofia muscular de Emery-Dreifuss, por
recombinación entre repeticiones invertidas en Xq28. Este caso es especialmente interesante porque se
ha detectado la inversión de esta región en un tercio de las mujeres normales.
D. Otras anomalías: La recombinación desigual entre elementos duplicados del genoma humano
origina también otros procesos. Por ejemplo, la duplicación invertida del cromosoma 15 es el
cromosoma marcador que se encuentra con mayor frecuencia en recién nacidos. También se encuentra
un cromosoma marcador dicéntrico debido a una duplicación invertida en 22q en pacientes con
Síndrome de Ojo de Gato, por reordenamientos entre duplicaciones segmentarias. Estas mismas
duplicaciones están implicadas en la translocación t(11;22)(q23;q11), que es la única translocación
recíproca equilibrada recurrente en humanos. Finalmente, se ha observado que hasta un 1% de los
casos de retraso mental esporádico pueden ser debidos a una microdeleción en 17q21.31, por
recombinación entre duplicaciones segmentarias flanqueantes. Curiosamente, esa región se presenta en
humanos en dos configuraciones diferentes, ya que existe un polimorfismo de inversión debido también
a la presencia de duplicaciones segmentarias en orientación invertida; una de esas configuraciones, la
llamada H2, es la que puede dar lugar a la microdeleción.
La Figura 15.9 muestra la estructura de 17q21.31 y la microdeleción que
se origina en esta región.
900 kb
H1
(80%)
H2
(20%)
700 kb
microdeleción
17q21.31
172
GENÉTICA HUMANA
CAPÍTULO 16: EFECTOS FENOTÍPICOS DE LAS MUTACIONES
173
Capítulo 16. Efectos fenotípicos de las mutaciones.
Pérdida de función, fenotipos recesivos y haploinsuficiencia. Fenotipos
dominantes por ganancia de función. Alteraciones de la impronta genómica.
Mutaciones que afectan a la morfogénesis.
Cuando un gen está mutado por cualquiera de los mecanismos que hemos visto en el capítulo anterior,
pueden suceder fundamentalmente dos cosas: (a) que esa mutación se silenciosa, no tenga ningún efecto
pernicioso ni provoque ningún fenotipo anómalo; ó (b) que esa mutación provoque la aparición de un
fenotipo aberrante que conduzca al desarrollo de una enfermedad. En este segundo caso, que es el que nos
ocupa en esta asignatura, es importante darse cuenta de que la alteración de un gen puede provocar un
fenotipo anormal mediante dos mecanismos, fundamentalmente: la pérdida de función ó la ganancia de
función. La pérdida de función de un gen equivale a su ausencia total, ya que el gen no codifica la
proteína respectiva. En general, esto da lugar a fenotipos que se heredan de manera recesiva, ya que es
necesario que estén mutados los dos alelos para que se manifieste el fenotipo. Sin embargo, en aquellos
casos en los que hay un efecto de dosis génica, en los que se producen fenotipos dominantes por un
fenómeno llamado haploinsuficiencia, la pérdida de función genera fenotipos de herencia dominante. En
el caso de las mutaciones que provocan una ganancia de función, los fenotipos resultantes son
generalmente de herencia dominante, porque la mutación facilita que el gen escape a los mecanismos que
regulan su expresión, o bien crea una nueva función que tiene un efecto dominante negativo. Como
regla general, podemos decir que cuando las mutaciones puntuales en un gen producen el mismo fenotipo
que las deleciones de todo el gen, lo más probable es que esas mutaciones provoquen una pérdida de
función; en cambio, las mutaciones que operan a través de una ganancia de función suelen provocar
fenotipos distintos a los que genera la deleción o disrupción de ese gen. A continuación veremos un poco
más a fondo cada una de estas dos situaciones.
Pérdida de función, fenotipos recesivos y haploinsuficiencia
Un gen puede perder su función de varias maneras:

Mutaciones en el propio gen: cualquier tipo de mutación que interrumpa la capacidad codificante del
gen hará que se pierda su función. Como hemos visto en el capítulo precedente, puede tratarse de
mutaciones puntuales, deleciones o inserciones que interrumpen el marco de lectura, así como
alteraciones de las secuencias de ayuste (splicing). También podemos incluir aquellas mutaciones que no
afectan a la secuencia del transcrito (ARNm) sino a su estabilidad, de forma que el mensajero se
degrada rápidamente y no llega a traducirse en la proteína correspondiente.

Mutaciones que afectan a los elementos que regulan la expresión génica. Un gen puede dejar de
expresarse por mutaciones que afectan al promotor, bien por mutaciones que alteran las secuencias
de unión a factores de transcripción o bien provocando su metilación. Otro mecanismo que disminuye
la expresión génica es el que se conoce como efectos de posición, es decir, una reordenación
cromosómica que mueve un gen de su posición original a otra región del genoma que está silenciada
(una región de heterocromatina, por ejemplo). En ocasiones, esto hace que el gen deje de expresarse.
Hay varios ejemplos de enfermedades humanas producidas por este mecanismo, como el caso de la
Distrofia Facio-Escápulo-Humeral que hemos estudiado en el capítulo anterior. Otros ejemplos son la
Aniridia (por alteraciones del gen PAX6) o la Displasia Campomélica (alteraciones del gen SOX9),
174
GENÉTICA HUMANA
enfermedades en las que muchas veces se observan translocaciones que no interrumpen directamente
los genes respectivos, sino que los separan de su contexto genómico habitual y los colocan en una
región de cromatina silenciada.
Aunque la pérdida de función de un gen suele desencadenar fenotipos recesivos, a veces se obtienen
fenotipos con herencia dominante. Esto sucede en aquellos casos en los que la disminución de la dosis
génica al 50% de lo que es habitual ya es capaz de provocar el fenotipo patológico. Como es sabido, los
genes autosómicos y el cromosoma X en mujeres están en doble dosis génica (hay dos alelos para cada
gen), lo que hace que en circunstancias normales se produzcan unos niveles determinados de producto
proteico. Habitualmente, la pérdida de uno de los alelos no tiene ningún efecto patológico: aunque sólo se
produce la mitad de proteína de lo que sería normal, la cantidad producida por el alelo normal es suficiente
para realizar la función respectiva. Sin embargo, en algunos casos la simple disminución de la dosis génica a
la mitad, por la inactivación de uno de los alelos mediante cualquier mecanismo mutacional de los que se
han estudiado, provoca el desarrollo del fenotipo patológico. Cuando esto sucede, se habla de enfermedades
causadas por haploinsuficiencia o insuficiencia haploide, que lógicamente se heredan con un patrón
dominante. Aunque hay bastantes enfermedades humanas causadas por haploinsuficiencia, un buen
ejemplo es el S. de Turner (45,X0), en el que basta la pérdida de una copia de los genes implicados para
que se desarrollen las características fenotípicas propias de esta enfermedad. En concreto, se ha visto que
uno los genes responsables de esta enfermedad (SHOX) se localiza en la región pseudoautosómica del
cromosoma X y habitualmente escapa a la inactivación del cromosoma X, por lo que en condiciones
normales está presente en doble dosis génica. Cuando se pierde una copia de este gen (por la ausencia de
uno de los cromosomas X), la única copia que queda no es suficiente para llevar a cabo correctamente su
función y esto parece ser la causa de la talla corta de las mujeres con Síndrome de Turner.
Fenotipos dominantes por ganancia de función
Los mecanismos por los que las mutaciones pueden originar una ganancia de función que se manifieste en
un fenotipo dominante son variados, pero podemos señalar tres:

Una mutación que altera la proteína de forma que ésta adquiere una nueva función. El mejor
ejemplo es el alelo "Pittsburgh" de alfa-1 antitripsina, un enzima con actividad anti-elastasa.
Habitualmente, los alelos mutantes de alfa-1 antitripsina producen una pérdida de función, con la
consiguiente disminución de la actividad enzimática y el desarrollo de una enfermedad denominada
enfisema pulmonar. En cambio, el alelo "Pittsburgh" está debido a una mutación que cambia la
metionina en posición 358 a una arginina (M358R). Esto hace que el enzima adquiera una actividad
anti-trombina que antes no tenía, dando lugar a un transtorno de la coagulación en vez de provocar
enfisema pulmonar. Las mutaciones con ganancia de función son muy frecuentes en cáncer, siendo uno
de los principales mecanismos de activación de oncogenes. Por ejemplo, la fusión de los genes BCR y
ABL, en pacientes con leucemia mieloide crónica, es el resultado de una translocación (9;22) en la
que el gen ABL —una tirosina-quinasa— pierde su región reguladora y queda fusionado con la región 5'
del gen BCR, que se expresa en células progenitoras hematopoyéticas. Esto provoca un nuevo gen de
fusión que conduce a una expresión constitutiva y des-regulada de la tirosina-kinasa ABL en células de la
serie mieloide en la médula ósea, lo que lleva el desarrollo de la leucemia.

Ganancia de función también por la sobre-expresión de un gen, como resultado de duplicaciones o
amplificaciones génicas: un segmento genómico que se copia varias veces, de forma que los genes
CAPÍTULO 16: EFECTOS FENOTÍPICOS DE LAS MUTACIONES
175
contenidos en ese segmento estarán en un número de copias muy superior al normal. Este también es
un mecanismo frecuente en distintos tipos de cáncer. Por ejemplo, el oncogén C-MYC está amplificado
en varios tumores (sobre todo en neuroblastomas), C-ERBB2 en tumores de mama, etc. Aunque estas
amplificaciones pueden verse en un cariotipo convencional como regiones de tinción homogénea
(Homogenous Staining Regions, HSR), o también como "Dobles Diminutos" (cromosomas minúsculos), la
técnica de FISH las detecta con mucha mayor sensibilidad y permite además contar el número de veces
que el gen se ha amplificado.
La Figura 16.1 muestra algunos ejemplos de mutaciones que producen
ganancia de función en cáncer.

Por un efecto dominante-negativo. Consiste en que ciertos tipos de genes codifican moléculas que
funcionan como dímeros o forman parte de complejos multiméricos, de modo que basta la mutación en
uno de los alelos del gen para que las moléculas proteicas mutantes desestabilicen totalmente los
complejos de los que forman parte. Un ejemplo típico es el de enfermedades que afectan a los genes
que codifican alguna de las cadenas de colágeno. La molécula de pro-colágeno es un trímero formado
por distintos tipos de cadenas, cuya combinación da lugar a los diferentes tipos de colágeno que existen.
De modo general, una mutación en el gen de una de las cadenas provocará la desestabilización de todo
el complejo trimérico, por lo que basta la mutación en un solo alelo para que se desarrolle la
enfermedad. En estos casos, puede darse la circunstancia de que una mutación puede tener distinta
gravedad en función del número de moléculas mutantes y nativas que se generan.
En la Figura 16.2 se ilustra el efecto dominante negativo de las mutaciones
que provocan la desestructuración de las moléculas de procolágeno tipo I.
Todo lo dicho hasta ahora supone, en cierta medida, una simplificación con fines didácticos. De hecho,
existen algunos genes en los que distintas mutaciones pueden originar tanto una pérdida como una
ganancia de función, llevando al desarrollo de fenotipos y enfermedades distintas según se trate de una
pérdida o una ganancia. Ya hemos visto, por ejemplo, el caso del gen del receptor de andrógenos, en el
que la expansión de un trinucleótido provoca la enfermedad de Kennedy (atrofia muscular espino-bulbar)
mientras que las mutaciones con pérdida de función dan lugar al llamado Síndrome de feminización
testicular. Otro ejemplo es el de PMP22 (localizado en 17p11.2), un gen sensible a dosis en el que la
duplicación de uno de los alelos —lo que supone la existencia de tres copias funcionales del gen— provoca la
enfermedad de Charcot-Marie-Tooth (un tipo de neuropatía periférica). Por el contrario, la pérdida de uno
de los alelos por deleción o —menos frecuentemente— por mutación puntual provoca otra neuropatía
distinta llamada "Neuropatía hereditaria con parálisis por presión".
A continuación veremos otras dos situaciones especiales que sirven para ilustrar muy bien la variedad de
efectos fenotípicos que se obtienen por mutaciones. En primer lugar estudiaremos el fenómeno de la
impronta genómica y sus alteraciones; después veremos algunas alteraciones en el desarrollo embrionario
debidas a mutaciones en genes que codifican factores de transcripción y receptores de membrana.
Alteraciones de la impronta genómica
El imprinting o impronta genómica es la marca epigenética que define una región genómica como materna ó
paterna en el cigoto. La existencia de este fenómeno se descubrió al crear embriones de ratón por
176
GENÉTICA HUMANA
transferencia nuclear: cambiando un pronúcleo masculino por un segundo pronúcleo femenino se obtiene un
ginogenonte; reemplazando el pronúcleo femenino por un segundo pronúcleo masculino se obtiene un
androgenonte. En teoría, estos embriones (excepto los androgenontes YY) deberían ser viables, pero en
cambio se observó que estas modificaciones son letales en el periodo embrionario, y que esa letalidad tiene
dos formas diferentes: los ginogenontes muestran un embrión normal con falta de desarrollo de tejidos
extraembrionarios, mientras que los androgenontes muestran más alteraciones en el embrión que en
tejidos extraembrionarios. En humanos, las concepciones uniparentales androgenéticas, que se originan
raramente por la pérdida de los cromosomas maternos poco después de la fertilización, se manifiestan en
una estructura que se conoce como mola hidatidiforme completa. Por el contrario, los oocitos que se
dividen por partenogénesis sólo contienen material materno, y dan lugar a quistes dermoides. Estos
hallazgos se explican actualmente por la existencia en el genoma de genes "improntados" (sometidos al
fenómeno de la impronta), en los que de algún modo se reconoce el origen parental de cada alelo y se
produce el silenciamiento selectivo de uno de ellos: en unos casos siempre se silencia el materno, en otros
genes siempre se silencia el alelo paterno. Por tanto, cuando el núcleo del cigoto sólo contiene material de
uno de los progenitores, pero no una mezcla de ambos, los embriones resultantes son inviables. Esto
sugiere la existencia de una asimetría de los genomas materno y paterno, en cuanto a que ambos
genomas tienen silenciados distintos grupos de genes. Esta asimetría es necesaria para el correcto
desarrollo embrionario.
Dado que ambos alelos de los genes sometidos a imprinting son idénticos y capaces de interaccionar con los
mismos factores de transcripción, el mecanismo que silencia uno de ellos de manera estable y heredable
debe ser un mecanismo epigenético, que haga posible que el imprinting pueda borrarse durante la
gametogénesis y re-establecerse tras la fecundación. La metilación, como mecanismo silenciador de la
expresión génica, cumple la mayor parte de estos requisitos, y hay bastantes líneas de evidencia que
apoyan el papel de la metilación en el fenómeno de imprinting: 1) todos los genes improntados descritos
hasta el momento -excepto uno- muestran regiones con metilación diferencial (abreviadas DMR en
inglés, regiones que están metiladas en uno de los alelos pero no en el otro), cuyos patrones de metilación
se establecen durante la gametogénesis y se mantienen gracias a la metilación específica de ADN hemimetilado; 2) los embriones de ratón dnmt1-/- (que carece de ADN-metiltransferasa-1) muestran expresión
bi-alélica de genes improntados, es decir, en ausencia de la metilasa de mantenimiento se re-expresa el
alelo que estaba silenciado; 3) se ha descrito el caso de una mujer con mutaciones en el gen DNMT3L
(que codifica una metilasa) que tiene infertilidad porque los embriones fallecen al implantarse en el útero; y
4) no se ha encontrado un fenómeno similar al imprinting en especies incapaces de llevar a cabo
metilación.
Igualmente, se ha comprobado que los genes sometidos a imprinting también se replican de manera
asincrónica: por FISH se suelen ver dos señales de hibridación correspondientes a las dos cromátides que
se forman durante la fase S del ciclo celular, pero en genes improntados se ve un cromosoma con dos
señales y el otro cromosoma homólogo con una sola señal. Esto sugiere que el alelo específicamente
silenciado se replica más tarde.
Existen varios modelos para explicar cómo la metilación diferencial da lugar a las diferencias de expresión
entre alelos paterno y materno, y cómo se regulan genes vecinos que tienen patrones de imprinting
opuestos. Parece claro que en algunos casos es muy importante la proteína CTCF (CTC-binding factor) una
proteína que se une a la las regiones de metilación diferencial (DMR) únicamente cuando éstas no están
metiladas. Por ejemplo, se ha visto que la regulación de los genes Igf2 y H19 en ratón (que tienen patrones
de imprinting opuestos) se lleva a cabo por este mecanismo, ya que CTCF actúa como aislador (insulator)
del promotor de Igf2 de unos potenciadores lejanos.
CAPÍTULO 16: EFECTOS FENOTÍPICOS DE LAS MUTACIONES
177
La Figura 16.3 muestra varios modelos de regulación de los genes que están
sometidos a imprinting.
Alelo 1
Me
Alelo 2
Alelo 1
Me
Alelo 2
Alelo 1
Me
Alelo 2
La importancia de la proteína CTCF se ha puesto de manifiesto gracias a un hallazgo sorprendente, al
conseguir ratones partenogenéticos viables cuando se deleciona de su genoma el gen H19 y la
región de metilación diferencial a la que se une CTCF. Inicialmente, un ratón partenogenético lleva dos
copias del genoma materno, por lo que tendrá expresión bialélica del gen H19 y silenciamiento de ambos
alelos de Igf2, de ahí que sean inviables. La deleción de una de las copias del H19 reestablece la expresión
monoalélica de este gen, pero todavía hay silenciamiento total de Igf2e inviabilidad embrionaria. En cambio,
si además se deleciona la región de metilación diferencial a la que se une CTCF, ahora los potenciadores
pueden promover la expresión de Igf2 en este cromosoma, con lo que se reestablece la expresión
monoalélica de Igf2. El resultado final es la expresión monoalélica de H19 de uno de los cromosomas y la
expresión monoalélica de Igf2 del cromosoma homólogo, que es la situación normal. Esto ilustra la
importancia que tiene la impronta genómica en el desarrollo embrionario, y sugiere que la ineficacia de
los procesos de clonación de mamíferos probablemente se deba a que los núcleos somáticos utilizados
para la transferencia nuclear no tienen los patrones de imprinting necesarios para la viabilidad embrionaria.
El video de la Figura 16.4 muestra la importancia del fenómeno del imprinting
en el desarrollo embrionario.
En cada ciclo reproductivo, los patrones de imprinting han de establecerse de nuevo, puesto que lo que en
una meiosis fue material de origen paterno (transmisión de un varón a su hija, por ejemplo) en la siguiente
meiosis pasará a ser marcado como materno (cuando esa hija tenga descendencia). Para poder cambiar el
178
GENÉTICA HUMANA
imprinting es necesario borrar toda la información previa sobre cuál de los alelos debe silenciarse. Como el
genoma está muy desmetilado en los gametos, el cambio en los patrones de imprinting debe de tener
lugar durante la gametogénesis. Con los datos actuales, la hipótesis más aceptada para explicar el
borrado y re-establecimiento de los patrones de metilación durante la gametogénesis es la existencia de
proteínas capaces de unirse a las DMR no-metiladas (y así protegerlas de la mutilación), junto con otros
factores que se unen a las DMR metiladas y ayudan a mantener el estado silenciado. Se piensa que sólo
una de las líneas germinales (masculina ó femenina) es capaz de producir los factores que
protegen de la metilación a las regiones no-metiladas. Así, estas regiones se mantendrán desmetiladas en la línea germinal que produzca estos factores. Por el contrario, estas regiones se metilarán y
silenciarán en la línea germinal que no los produce. Por lo que respecta a la identidad de dichos factores, los
candidatos ideales son las proteínas que se unen específicamente a regiones metiladas (MeCP2, HDAC, etc)
ó a regiones no metiladas (CTCF, factores de transcripción que se unen a CpGs no metilados, etc).
La impronta es, por tanto, un mecanismo fisiológico normal. Sin embargo, algunas alteraciones
genéticas que afectan a regiones sometidas a imprinting pueden dar lugar a enfermedades. Este es el caso
de la llamada disomía uniparental, situación en la que ambas copias de de un cromosoma o de una región
cromosómica proceden del mismo progenitor. Si esa región contiene genes ―improntados‖, el resultado
puede ser la presencia de dos copias ―silenciadas‖ de un gen, con lo que el efecto viene a ser similar a una
deleción homocigótica de ese locus. Hoy en día conocemos una larga lista de enfermedades y tumores
humanos debidos a disomía uniparental de loci sometidos a impronta. Además, se han detectado regiones
improntadas en los cromosomas 11, 15, 7 y 14, y actualmente se conocen unos 30 genes improntados en
ratón y humanos.
Los loci sometidos a impronta tienden a aparecer agrupados en determinadas regiones cromosómicas, de
manera que —dentro de cada uno de estos grupos o clusters— unos genes muestran expresión materna y
otros genes muestran expresión paterna. Esto se ilustra con el ejemplo de dos enfermedades llamadas
Síndrome de Prader-Willi y Síndrome de Angelman, originados por alteraciones en el grupo de genes
improntados que se encuentran en 15q11-q13. Todos los genes improntados en esta región muestran
expresión específica del alelo paterno excepto el gen UBE3A, que muestra expresión materna en
cerebro. Parece que la expresión de UBE3A depende de la expresión de un transcrito antisentido que
comienza 6,5 kb en dirección 3’ del codón de parada de UBE3A y que alcanza hasta la mitad 3’ de UBE3A,
de manera que en la mayoría de los tejidos somáticos este transcrito no se expresa y por tanto la expresión
de UBE3A en estos tejidos es bialélica. Por el contrario, el transcrito antisentido se expresa en células de
Purkinje, neuronas del hipocampo y células mitrales olfatorias, silenciando el alelo paterno y originando el
imprinting de UBE3A en estos tejidos.
En la Figura 16.5 se muestra el cluster de genes sometidos a imprinting en
15q11, cuyas alteraciones causan los síndromes de Prader-Willi y de
Angelman.
Por estudios en pacientes con microdeleciones, sabemos que el centro de imprinting de esta región es
bipartito y cubre en total unas 100 kb. Dentro de esta región, el centro de imprinting para Angelman cubre
1,15 kb, mientras que el centro de imprinting Prader-Willi es más distal y cubre unas 4,3 kb (incluyendo el
promotor y el exón 1 del gen SNRPN). Se postula que durante la gametogénesis estos centros fijan los
patrones de expresión de toda esta región, de forma que en la oogénesis se activa el centro de
imprinting AS —que, a su vez, bloquea la función del centro de imprinting PW. Como resultado, los
gametos femeninos sólo expresan el gen UBE3A. En cambio, en la espermatogénesis el centro AS estaría
CAPÍTULO 16: EFECTOS FENOTÍPICOS DE LAS MUTACIONES
PAR-5
NECDINA
SNRPN
ZNF127
179
IPW
PAR-1
UBE3A
Antisense
Paterno
Materno
bloqueado, de manera que el centro de imprinting PW es ahora activo y promueve la expresión de todos los
genes de expresión paterna, incluído el gen antisentido que bloquea la expresión de UBE3A. De este modo
se crean los epigenotipos paterno y materno que se mantendrán durante el desarrollo embrionario y en
células somáticas adultas.
El Síndrome de Prader-Willi, cuya incidencia estimada es de 1/25.000, se caracteriza por disminución de
la actividad fetal, obesidad, hipotonía muscular, retraso mental, hipogonadismo hipogonadotrófico, manos y
pies pequeños, hipopigmentación, baja estatura y rasgos dismórficos. Se debe a la falta de expresión de los
genes específicos del cromosoma paterno dentro de esta región. Por el contrario, el Síndrome de
Angelman tiene una incidencia de 1/15.000 nacimientos y está caracterizado por un fenotipo distinto al de
Prader-Willi: retraso mental severo, temblor, ataxia, marcha anormal, tendencia a la risa, transtornos del
sueño y convulsiones.
Está provocado por la falta de expresión del gen UBE3A, que se expresa
específicamente en el cromosoma materno. Las alteraciones de la impronta de todos estos genes pueden
tener lugar por varios mecanismos:
1) Deleciones grandes de la región: producirán Síndrome de Prader-Willi (SPW) si la deleción afecta al
cromosoma paterno, ó Síndrome de Angelman (AS) si la deleción afecta al cromosoma materno.
Constituyen la principal causa de estas enfermedades (70% de todos los casos).
2) Disomía uniparental (UPD), debida a no-disyunción durante una de las meiosis parentales. En
efecto, la no-disyunción puede originar gametos disómicos o nulisómicos, que originan cigotos
trisómicos o monosómicos. En estas circunstancias, la disomía uniparental puede ser resultado tanto de
la recuperación de un cigoto trisómico por pérdida de uno de los cromosomas, como de la duplicación
completa de un cromosoma para recuperar un cigoto monosómico. En este último caso vemos una
isodisomía (ambos cromosomas provienen de la duplicación de un mismo cromosoma parental),
mientras que un 70% de los casos de reducción de cigotos trisómicos dan lugar a heterodisomía
(presencia de los dos cromosomas del mismo progenitor). La presencia de dos cromosomas 15
paternos da lugar a un 2% de los casos de Síndrome de Angelman, mientras que el 25% de los casos
de Síndrome de Prader-Willi se deben a la presencia de dos cromosomas 15 maternos.
3) Mutaciones puntuales en los genes responsables. En el Síndrome de Angelman se detectan
mutaciones en el gen UBE3A (que codifica la E6 ubiquitin-ligasa) hasta en un 20% de los enfermos. En
180
GENÉTICA HUMANA
el caso del Síndrome de Prader-Willi, en cambio, la búsqueda de un gen candidato no ha dado
resultados, aunque el principal gen implicado es SNRPN. En el caso concreto de este gen (SNRPN), se
ha visto que existe otra secuencia codificante en dirección 5’ (SNURF por "SNRPN Upstream Reading
Frame") de manera que, de hecho, ambos forman un único gen bicistrónico: un solo transcrito del que
se traducen dos proteínas. Con los datos actuales, hay que considerar el Síndrome de Prader-Willi como
un síndrome de microdeleción causado por la pérdida de varios genes contiguos.
4) Mutaciones o microdeleciones que afectan a los centros de imprinting, de manera que no se
podrán re-establecer los patrones durante la gametogénesis en el caso de que haya
transmisión de un sexo al opuesto (madre-hijo ó padre-hija). El resultado funcional en el cigoto
es idéntico a lo que sucede en la disomía uniparental: ambos alelos llevan el mismo patrón de
imprinting. Este tipo de alteraciones son responsables de un 5% de los casos de Síndrome de PraderWilli o de Síndrome de Angelman. El ejemplo típico es el de la abuela paterna portadora de una
mutación en el centro de imprinting del cromosoma 15 que lleva marcado como materno. Al transmitir
este cromosoma a un hijo varón, el cromosoma mutado pasará a su hijo marcado como materno, por lo
que no es necesario reestablecer el imprinting y el hijo será normal (llevará un cromosoma marcado
como paterno y otro como materno). En la siguiente generación, en cambio, este individuo varón
deberá pasar su cromosoma 15 marcado como paterno, por lo que la marca que lo identificaba como
materno deberá ser borrada durante la espermatogénesis y sustituida por la marca que lo identifique
como paterno. En este individuo dicho cambio será imposible, debido a la mutación en el centro de
imprinting de su cromosoma 15 materno, por lo que su descendencia llevará dos cromosomas con
epigenotipo materno y desarrollará Síndrome de Prader-Willi. Lo mismo puede suceder para el
Síndrome de Angelman, cuando la mutación del centro de imprinting afecta al cromosoma paterno.
El diagnóstico genético en estas dos enfermedades va dirigido a la detección de deleciones, de disomía
uniparental o de alteraciones en el centro de imprinting, y se realiza por los siguentes procedimientos:

Cariotipo convencional. Es insuficiente para detectar la microdeleción típica, pero es útil en el probando
y en los padres para detectar posibles translocaciones, ya que un pequeño porcentaje de las deleciones
son fruto de translocaciones no equilibradas (casi siempre de novo). También detectará translocaciones
equilibradas de novo o heredadas, aunque estos casos son excepcionales.

FISH: detecta todas las deleciones, usando sondas frente al gen SNRPN en combinación con una sonda
centromérica del cromosoma 15. La mayoría de las deleciones son intersticiales, siendo la más frecuente
una pequeña deleción de unas 4 Mb de tamaño.

Detección de Disomía Uniparental: se usan microsatélites del cromosoma 15 para determinar el origen
parental de cada cromosoma. Lógicamente, es necesario descartar primero la presencia de deleción, y
además este procedimiento viene limitado por la necesidad de obtener muestras del probando y de
ambos progenitores, así como por la posible falsa paternidad.

Análisis de metilación: puede hacerse bien por Southern blot tras digestión del ADN genómico con
enzimas de restricción sensibles a metilación, o por PCR específica de metilación (MS-PCR). Si el exón 1
de SNRPN y el centro de imprinting adyacente están metilados en los dinucleótidos CpG, esto indica un
patrón materno; si no están metilados, podemos excluir el silenciamiento de SNRPN y los demás genes
de expresión paterna. Es un análisis que no requiere muestras de los progenitores, y permite confirmar
la existencia de Síndrome de Prader-Willi cuando se observa sólo el patrón de metilación materno. Tiene
la ventaja de que si el análisis es normal (es decir, si se observan dos patrones distintos de
CAPÍTULO 16: EFECTOS FENOTÍPICOS DE LAS MUTACIONES
181
metilación, correspondientes a los cromosomas paterno y materno), esto automáticamente excluye la
presencia de deleción o de disomía uniparental. Cuando esta prueba es anormal (patrón únicamente
materno) y no se detecta deleción ni disomía uniparental, esto sugiere la existencia de alteraciones en el
centro de imprinting.

En el caso concreto del Síndrome de Angelman también es necesario buscar mutaciones en UBE3A:
aunque esto sólo supone un 20% de los pacientes, su detección es de gran importancia por el aumento
dramático en el riesgo de recurrencia de la enfermedad en la misma familia. Se estima que hasta un
tercio de los pacientes que tienen estudios de metilación normales tienen mutaciones en UBE3A, por lo
que la estrategia diagnóstica recomendada es comenzar con estudios de metilación y después buscar
mutaciones de UBE3A en aquellos sujetos con resultados de metilación normales.
La Figura 16.6 muestra la estrategia diagnóstica en los síndromes de PraderWilli y Angelman.
En el Síndrome de Prader-Willi el riesgo de recurrencia (un segundo individuo enfermo en la misma familia)
es prácticamente cero en los casos de deleción y de disomía uniparental que no están asociados a
reordenaciones cromosómicas. De todas formas, a efectos de consejo genético se considera un riesgo de
recurrencia del 1%, ya que en una muestra amplia de pacientes se detectó un riesgo de recurrencia en
hermanos de probandos del 1,6% (aunque esto incluía todas las posibles causas). El mayor riesgo de
recurrencia se produce en los casos familiares que están debidos a alteraciones en el centro de imprinting.
En estos casos, el riesgo de recurrencia es del 50% ya que volverá a suceder siempre que el padre
transmita el cromosoma 15 que lleva la mutación. En el Síndrome de Angelman, el riesgo de recurrencia
también se considera habitualmente del 1%, excepto en los casos de mutaciones del centro de imprinting y
de mutaciones en UBE3A, en las que el riesgo de heredar el cromosoma materno mutado es del 50% (si el
cromosoma mutado se hereda del padre no hay enfermedad porque en ese cromosoma el gen UBE3A no se
expresaría en cualquier caso).
Mutaciones que afectan a la morfogénesis
El estudio comparativo del desarrollo embrionario en humanos, ratón y Drosophila ha permitido identificar
los mecanismos genéticos por los que se generan varias enfermedades congénitas de la morfogénesis.
En general, estas mutaciones afectan sobre todo a genes que codifican dos tipos de proteínas:
A. Factores de transcripción: son proteínas con actividad reguladora de la expresión génica gracias a que
poseen dos propiedades principales: capacidad de unión a determinados elementos reguladores en el ADN y
capacidad de transactivación de otros factores proteicos. Los factores de transcripción tienen, por tanto, un
dominio de unión al ADN y un dominio de transactivación por el que se une a los otros componentes de un
complejo activador o represor de la transcripción. Hay cuatro tipos principales de dominios de unión al ADN
que se encuentran en la gran mayoría de factores de transcripción: 1) HTH (helix-turn-helix ó hélicevuelta-hélice), presente sobre todo en factores de transcripción que intervienen en la regulación de la
expresión génica durante el desarrollo embrionario. El ejemplo mejor conocido es el homeodominio, que
está presente en los genes homeobox que determinan la identidad posicional de las células a lo largo del eje
craneo-caudal del embrión; 2) dedos de zinc, que suelen unirse a elementos de respuesta en el ADN; 3)
cremalleras de leucina, con una hélice en la que hay una leucina cada 7 aminoácidos de manera que
quedan en la misma cara de la hélice y dimerizan fácilmente; 4) HLH (helix-loop-helix ó hélice-lazo-
182
GENÉTICA HUMANA
hélice) son similares a cremalleras de leucina y también forman homo- y heterodímeros; ambos son
importantes en la regulación de procesos de diferenciación celular y desarrollo embrionario.
En la Figura 16.7
se
muestra
la
estructura
de
algunos factores
de
transcripción.
Entre los síndromes malformativos debidos a alteraciones en factores de transcripción encontramos
varios grupos:

Las extremidades se organizan en torno a 3 ejes (Antero-Posterior, Dorso-Ventral y ProximalDistal), y se desarrollan a partir de un brote en el que hay una intensa actividad mitótica en la
llamada zona de progresión, actividad que es inducida por el repliegue apical ectodérmico.
Esta actividad mitótica está en equilibrio con los procesos de apoptosis de células del mesénquima,
que da lugar a los espacios interdigitales e interóseos. El principal mecanismo de formación
del eje antero-posterior es la vía de señalización intracelular de las proteínas Hedgehog,
integrada por SHH, los factores de transcripción GLI1, GLI2 y GLI3, y los receptores Patched
(PTCH) y Smoothened (SMO). El gen llamado Sonic Hedgehog (SHH) se expresa en la línea
media del Sistema Nervioso Central, en la notocorda y en la Zona de Actividad Polarizante, que
es la región que determina la ―posterioridad‖ de un miembro. En general, la disregulación de este
gen provoca sindactilia (fusión de dos ó más dedos) y/o polidactilia, (aparición de uno ó más
dedos ―extra‖) que tienden afectar a los dedos cercanos al pulgar (preaxiales) en casos de sobreexpresión de SHH, o bien afectan a los dedos cercanos al meñique (centrales/postaxiales) en casos
de represión de este gen. Sin embargo, no se han encontrado mutaciones de SHH en
malformaciones de miembros, pero sí en pacientes con holoprosencefalia autosómica
dominante. Esta enfermedad se origina por el desarrollo defectuoso del cerebro anterior y de la
cara, con unas manifestaciones muy variables que van desde un incisivo único hasta individuos con
un solo ojo (cíclopes), pero es genéticamente heterogénea ya que mutaciones en otros genes como
ZIC2, SIX3, TGIF y PATCHED también la causan. Por otro lado, las mutaciones del gen PTCH
(localizado en 9q22.3) causan el Síndrome de Gorlin autosómico dominante (carcinoma
nevoide de células basales), que además cursa frecuentemente con polidactilia pre- o postaxial, o
bien sindactilia del 3º y 4º dedos del pie. Finalmente, los factores de transcripción GLI comparten
el dedo de zinc de la proteína codificada por el gen cubitus interruptus de Drosophila, y actúan
como activadores o represores de la vía de transducción de señales de SHH. Por ejemplo, el
Síndrome de cefalopolisindactilia de Greig (polidactilia postaxial de manos, preaxial de pies,
macrocefalia, frente prominente con hipertelorismo leve), de herencia autosómica dominante, se
debe a haploinsuficiencia de GLI3 por mutaciones que destruyen el dedo de zinc de este gen, de
manera que se produce expresión ectópica preaxial de SHH (GLI3 normalmente inhibe la expresión
de SHH). En cambio, GLI3 también parece implicado en el Síndrome de Pallister-Hall
(hamartomas hipotalámicos con malformaciones de extremidades), por mutaciones que respetan el
dedo de zinc y por tanto mantienen constitutivamente la actividad represora sobre SHH. Un
mecanismo similar parece implicado en la Polidactilia postaxial tipo A (en la que se ha
identificado una mutación de GLI3 que respeta el dedo de zinc). Por su parte, el Síndrome de
Rubinstein-Taybi (retraso psicomotor y del crecimiento, dismorfismo facial, anomalías de los
pulgares y, raramente, polidactilia preaxial de los pies) se debe a mutaciones en CBP: como GLI se
transactiva a través de un dominio de unión a CBP, la ausencia de éste factor provoca una
expresión baja de GLI, seguida por la expresión anormalmente elevada de SHH.
CAPÍTULO 16: EFECTOS FENOTÍPICOS DE LAS MUTACIONES
183
La Figura 16.8 ilustra el desarrollo de los miembros y la función de varios
genes en este proceso.

Los genes que codifican proteínas con el homeodominio se denominan genes homeobox (la
homeobox es la ―caja‖ o secuencia de ADN que codifica el homeodominio), y se agrupan en varias
familias. En Drosophila, el plan corporal se regula durante la embriogénesis por la expresión del
grupo de genes HOM-C, organizados en un complejo Antennapedia (3’, estructuras anteriores) y
un complejo Bithorax (5’, estructuras posteriores). Los factores de transcripción que regulan la
expresión de estos genes son el grupo trithorax (regulación positiva) y el grupo polycomb
(regulación negativa). Los ortólogos humanos de HOM-C son la familia de genes HOX, de los que
hay 4 grupos parálogos (cada grupo se denomina por una letra de la A a la D). Dentro de un grupo,
cada gen se designa con un número del 1 al 13 en dirección 3’ a 5’. Así, los parálogos 1 determinan
regiones anteriores y los parálogos 13 las regiones posteriores del eje corporal. El desarrollo de
las extremidades tienen una fase inicial en la que es importante la expresión de genes HOX, y de
hecho se ha descrito un tipo de sin-polidactilia en pacientes que tienen un aumento de 7-14
alaninas en el gen HOXD13, expansión que provoca una ganancia de función de dicho gen.
También se han encontrado mutaciones en HOXA13 en pacientes con Síndrome mano-piegenital, caracterizado por hipoplasia del quinto dedo de manos y pies y malformaciones
genitourinarias (hipospadias o útero bicorne).
La Figura 16.9 muestra un esquema de los genes homeobox humanos.
1
HOX A
2
3
4
5
6
7
8
9
10
11
12
13
5’
3’
HOX B
HOX C
HOX D
Bithorax
Antennapedia

Los genes de la familia Pax codifican factores de transcripción que contienen un dominio de
unión al ADN de 128 aa con dos regiones de hélice-vuelta-hélice, llamado "paired domain" porque
originalmente se encontró en el gen "paired" de Drosophila. Además, los factores Pax3, Pax4, Pax6
y Pax7 también contienen un homeodominio. Las mutaciones en el dominio paired de PAX6 causan
anomalías oculares (aniridia, anomalía de Peters, distrofia corneal, catarata congénita e hipoplasia
de la fovea). En estos casos, la aniridia (o, a veces, anoftalmia) no parece producirse por un
efecto dominante negativo, sino por haploinsuficiencia del gen PAX6, ya que los heterocigotos sólo
tienen aniridia pero en cambio los homocigotos padecen anoftalmia, lo cual sugiere un efecto de
dosis. Las mutaciones en PAX6 también son responsables de la aniridia del Síndrome WAGR, por
una microdeleción en 11p13 que deleciona todo el gen. Por lo que respecta al gen PAX3, algunas
mutaciones en el mismo producen el Síndrome de Waardenburg tipo 1 (distopia cantorum,
pigmentación anormal y sordera sensorioneural), mientras que otras mutaciones en este mismo
184
GENÉTICA HUMANA
gen dan lugar al Síndrome de Klein-Waardenburg (lo anterior más camptodactilia y
malformaciones de las extremidades). Otro miembro de esta familia, el gen PAX8, está mutado en
casos familiares de disgenesia tiroidea. Por su parte, las mutaciones que afectan al gen PAX2
causan una condición autosómica dominante que incluye colobomas del nervio óptico, anomalías
renales y reflujo vesico-ureteral.

SRY es el gen que controla el desarrollo de la gónada masculina y, lógicamente, se localiza en el
cromosoma Y. La proteína codificada por SRY contiene una caja HMG (High Mobility Group), que es
un motivo de 79 aas por el que la proteína se une al ADN y lo dobla hasta 130 grados, con lo que
favorece la activación de genes cercanos. Las mutaciones en SRY son causa de la aparición de
individuos con cariotipo XY que fenotípicamente son mujeres. Otros genes relacionados con
SRY son los genes de la familia SOX; por ejemplo, SOX9 está mutado en una enfermedad
autosómica dominante llamada Displasia campomélica (inversión de sexo en varones,
arqueamiento congénito de huesos largos, paladar hendido, ausencia costillas y tórax pequeño). Se
piensa que las malformaciones esqueléticas de la displasia campomélica se deben a que SOX9 es
un factor de transcripción que transactiva secuencias reguladoras que se encuentran en el primer
intrón del gen COL2A1, que da lugar al colágeno tipo II. Por tanto, la falta de SOX9 lleva consigo
una producción insuficiente de cadenas alfa-1 del colágeno tipo 2, con las consiguientes
malformaciones en huesos y cartílagos.
B. Receptores de las vías de transducción de señales: constituyen otro gran grupo de proteínas que
suelen dar lugar a fenotipos de herencia dominante, habitualmente por un efecto dominante negativo de las
moléculas mutadas. A continuación se señalan dos de los ejemplos más ilustrativos:
El video de la Figura 16.10 ilustra la estructura y funcionamiento de los
receptores tirosina-quinasa, así como el efecto dominante negativo de las
mutaciones que provocan la activación constitutiva de la vía de señalización.

Los genes que codifican receptores para el factor de crecimiento fibroblástico (FGF). Tras la
unión del ligando extracelular al receptor, unión mediada por heparán-sulfato de la matriz
extracelular, los receptores forman homo- o heterodímeros, se transfosforilan en el dominio
quinasa intracelular y a continuación fosforilan proteínas intracelulares implicadas en diversas vías
de transducción de señales. Las mutaciones que afectan a los genes de estos receptores (FGFR1,
FGFR2 y FGFR3) causan varios síndromes de craniosinostosis y enanismo cuyas bases moleculares
están comenzando a comprenderse. Por ejemplo, la Acondroplasia (un tipo de enanismo) es una
enfermedad de herencia autosómica dominante debida a mutaciones en el gen del receptor del
Factor de Crecimiento Fibroblástico-3 (FGF3). Este receptor forma un homodímero que se activa
en respuesta a su ligando natural. En cambio, en los pacientes con acondroplasia se encuentran
mutaciones en uno de los alelos del gen, de forma que la molécula mutada conduce a la
dimerización del receptor incluso en ausencia de ligando. Como resultado, se obtiene una
activación constitutiva de la cascada de señales iniciada por el receptor, que en último término
provoca el cierre prematuro del cartílago de crecimiento de los huesos largos y la baja talla
característica de esta enfermedad. La mutación más frecuente en casos de acondroplasia es la
mutación G380R del gen FGFR3, que afecta al dominio transmembrana del receptor.
Curiosamente, mutaciones en otras regiones de este mismo gen causan fenotipos similares pero no
idénticos, como por ejemplo la displasia tanatofórica (micromelia e hipoplasia de costillas con
CAPÍTULO 16: EFECTOS FENOTÍPICOS DE LAS MUTACIONES
185
fallo respiratorio). Estas enfermedades son de herencia dominante por el efecto dominante
negativo de estas mutaciones, que hace que con una sola molécula mutada ya que se produzca la
activación constitutiva del receptor en ausencia de ligando. Respecto a mutaciones en otros genes
que codifican receptores de FGF (FGFR1 y FGFR2), también causan enfermedades con alteraciones
de huesos y cartílagos, como el Síndrome de Crouzon (craniosinostosis, bien aislada o bien
asociada con otros defectos esqueléticos), el Síndrome de Pfeiffer (pulgares y primer dedo del
pie anchos con anquilosis interfalángica), el Síndrome de Jackson-Weiss (lo anterior más
coalescencia tarso-metatarsiana) y el Síndrome de Apert (sindactilia severa).

Mutaciones que afectan al gen RET. Este gen codifica un receptor tirosina-quinasa, cuyo ligando
es el GDNF (Glial cell line-Derived Neurotrophic Factor). Las mutaciones de RET son muy
interesantes, ya que muestran cómo un mismo gen puede sufrir mutaciones que provocan
pérdida o ganancia de función, dando lugar a fenotipos diferentes. En el caso concreto de RET,
algunas mutaciones con cambio de sentido afectan a aminoácidos del dominio extracelular o del
dominio quinasa, y provocan la activación del receptor de manera independiente de ligando. Estas
mutaciones carcinoma medular de tiroides familiar u otros cuadros de cáncer familiar
denominados MEN2 (Multiple Endocrine Neoplasia), que son de herencia dominante porque un solo
alelo mutado desencadena la enfermedad por un efecto dominante negativo. Por el contrario,
algunas mutaciones de RET que llevan a la pérdida de función (mutaciones sin sentido, cambios del
marco de lectura, deleciones, etc) provocan la ausencia de las moléculas del receptor codificadas
por el alelo mutado, con el resultado de que la intensidad de la señalización de esta vía se ve
disminuida. Esto provoca un déficit en la migración de precursores neurales al tubo digestivo
durante el desarrollo embrionario, lo que da lugar a la Enfermedad de Hirschsprung (megacolon
agangliónico: ausencia congénita de los plexos submucosos y mientérico del colon distal). Esta
enfermedad se hereda con un patrón dominante, aunque también se han identificado mutaciones
en otros genes que causan la misma enfermedad con herencia recesiva, como el gen EDNRB del
receptor para endotelina B (receptor de proteinas G) ó también el gen de su ligando EDN3
(endotelina 3).
CAPÍTULO 17: DIAGNÓSTICO DE ENFERMEDADES GENÉTICAS
187
Capítulo 17. Diagnóstico de enfermedades genéticas.
Estrategias generales de diagnóstico de enfermedades genéticas. Métodos de
detección de mutaciones. Aplicación del ligamiento genético al diagnóstico: el
proceso de diagnóstico indirecto de enfermedades genéticas.
Estrategias generales de diagnóstico de enfermedades genéticas
Como en cualquier otro tipo de patologías, el diagnóstico de enfermedades genéticas se realiza mediante la
identificación clínica de los síntomas y signos que caracterizan cada síndrome concreto, apoyado en datos
de laboratorio. Con los avances del Proyecto Genoma Humano, hoy en día es posible, en muchos casos,
analizar directamente la alteración causal a nivel del ADN. De todas formas, en el entorno clínico nos
encontramos varios problemas que pueden dificultar el diagnóstico correcto. En primer lugar, la posible
presencia de heterogeneidad genética: varios genes pueden ser los responsables de una única
enfermedad. Esta circunstancia hace muy laborioso el estudio mutacional, ya que multiplica el número de
exones que hay que analizar. Incluso en aquellos casos en los que se sabe con exactitud cuál gen está
alterado, puede suceder que las mutaciones responsables del cuadro clínico se distribuyan por todo el gen
(fenómeno que algunos autores denominan heterogeneidad alélica), de manera que sería necesario
analizar toda la región codificante antes de poder descartar o confirmar que el gen en cuestión está mutado.
Lógicamente, si se trata de un gen de gran tamaño, el análisis se hace extremadamente laborioso. La
situación opuesta vendría dada por aquellas enfermedades genéticas que están causadas, en la gran
mayoría de familias, por una misma mutación, de manera que podemos centrarnos en el estudio de esa
mutación concreta para confirmar o descartar el defecto molecular que provoca esa enfermedad.
Por tanto, hemos de sopesar todas las circunstancias mencionadas para decidir si nos inclinamos por
realizar lo que se denomina diagnóstico directo (análisis de un individuo para ver si es portador de la
mutación concreta que causa la enfermedad en esa familia), o si por el contrario aplicaremos el denominado
diagnóstico indirecto (análisis de marcadores genéticos en la familia para ver si el consultando ha
heredado el cromosoma que lleva la mutación). A continuación discutiremos las ventajas e inconvenientes
de cada una de estas aproximaciones diagnósticas, así como los métodos más habitualmente empleados.
La Figura 17.1 explica las dos estrategias diagnósticas para detectar
alteraciones genéticas en enfermedades humanas.
Métodos de detección de mutaciones
Como hemos dicho, el diagnóstico directo consiste en el estudio de un gen —cuya implicación en el
desarrollo de una enfermedad ya ha sido demostrada— para detectar la presencia de posibles mutaciones
en el mismo. En aquellos casos en que las mutaciones patogénicas pueden estar localizadas a lo largo de
toda la secuencia codificante del gen (heterogeneidad alélica fuerte), se deben utilizar métodos "de
barrido", que examinan cada exón por separado para detectar simplemente si existe una mutación o no.
Estos métodos no identifican el tipo de mutación, pero nos permiten descartar rápidamente todos aquellos
exones normales, para centrarnos en el estudio de los exones mutados. En cambio, cuando queremos
detectar una mutación concreta, porque ya sabemos que es ésta mutación la que origina la enfermedad en
188
GENÉTICA HUMANA
esta familia, utilizaremos métodos dirigidos a identificar únicamente esa mutación (métodos "de
confirmación"). Éstos últimos son quizás los métodos más utilizados en el contexto de un laboratorio
diagnóstico, especialmente en aquellas enfermedades que tienen una heterogeneidad alélica limitada, es
decir, enfermedades en las que un pequeño número de mutaciones causan la inmensa mayoría de los casos.
Los ejemplos más notorios son la mutación C282Y (que causa la mayoría de los casos de Hemocromatosis
Hereditaria en europeos); la mutación F508del, responsable de hasta el 80% de los casos de Fibrosis
Quística en individuos nor-europeos; la inversión de los exones 1-22 del gen del Factor VIII de la
coagulación (responsable de un 50% de los casos de hemofilia A); la mutación G380R del gen FGFR3 (que
causa la mayoría de los casos de Acondroplasia), las mutaciones N370S y L444P (que detectan la mayoría
de los casos de Enfermedad de Gaucher), o las enfermedades por expansión de trinucleótidos (Enfermedad
de Huntington, Síndrome del X Frágil, etc). A continuación analizaremos algunos de los métodos más
utilizados en el diagnóstico directo, tanto métodos de barrido como de confirmación.
1. Métodos de barrido para la detección rápida de mutaciones (sin identificar el tipo concreto de
mutación). Excepto en el primero (SSCP) estos métodos se basan en la detección de heteroduplexes,
que se forman por la reasociación lenta de las cadenas tras la desnaturalización del fragmento de ADN.
Cuando el fragmento contiene una mutación y se mezcla con un ADN normal, la desnaturalizaciónreasociación da lugar a moléculas heteroduplex portadoras de un desemparejamiento (mismatch)
precisamente en el nucleótido donde está la mutación.

SSCP (Single Strand Conformation Polymorphism, Polimorfismo de la Conformación de Cadenas
Sencillas). Un cambio en la secuencia provoca cambios conformacionales cuando el ADN se
desnaturaliza (se separan las dos cadenas) y se deja que cada cadena se repliegue por separado. Estos
cambios conformacionales se detectan porque alteran la migración electroforética en geles de
poliacrilamida no-desnaturalizantes. En el ejemplo típico, se amplifica un exón mediante PCR, se
desnaturaliza el producto de PCR por calor, se cargan los productos desnaturalizados en un gel de
acrilamida, se realiza la electroforesis y se tiñe el gel mediante una tinción específica para el ADN
(tinción de plata, por ejemplo). Si no hay mutaciones, se detectarán únicamente las bandas
correspondientes
al
homodúplex
(resultado
de
la
reasociación
parcial
de
las
dos
cadenas
complementarias durante la electroforesis) y las bandas correspondientes a cada una de las cadenas
sencillas que se han replegado adoptando una conformación determinada. En cambio, la presencia de
una mutación dará lugar a nuevas bandas debidas al patrón de plegamiento de las cadenas
sencillas mutantes, que será diferente al de las cadenas nativas. Como hemos comentado, este
análisis no nos dice de qué tipo de mutación se trata: para eso es necesario secuenciar este producto
de PCR y compararlo con la secuencia normal. La ventaja es que nos permite descartar la presencia de
mutaciones rápidamente, lo que ahorra tiempo y recursos.
La Figura 17.2 explica gráficamente la técnica de SSCP.

DGGE (Denaturing Gradient Gel Electrophoresis, Electroforesis en Gel con Gradiente Desnaturalizante)
y sus variantes, entre las que destaca TGGE (Temperatura Gradient Gel Electrophoresis). Esta técnica
se basa en someter una muestra de ADN a una electroforesis en geles de acrilamida con un gradiente
desnaturalizante químico o térmico, de manera que la muestra se encuentra con condiciones cada vez
más desnaturalizantes a medida que avanza por el gel. Las muestras de ADN son productos de PCR
(exones, habitualmente) en cuyo extremo hay una región corta muy rica en citosinas y guaninas
(región llamada "clamp" o "pinza" GC), de forma que la temperatura de desnaturalización de esta
pequeña región es mayor que la del resto del fragmento. Por tanto, cuando el fragmento va avanzando
por el gel, llegará un momento en que se desnaturaliza todo excepto la región del clamp-GC. El
CAPÍTULO 17: DIAGNÓSTICO DE ENFERMEDADES GENÉTICAS
189
resultado es que el fragmento se frena y deja de avanzar por el gel. Cuando la muestra de ADN es un
heteroduplex que contiene un desemparejamiento, su punto de desnaturalización será distinto al del
fragmento nativo, y por tanto se parará en un punto distinto del gel. Esto se reflejará en la aparición de
una banda con distinta migración electroforética.
La Figura 17.3 ilustra el fundamento de las técnicas que detectan la
Gradiente
Electroforesis
Electroforesis
presencia de heterodúlex, con ejemplos de DGGE y TGGE.
Gradiente

DHPLC (Denaturing HPLC) es una técnica en la que los heteroduplex y homoduplex son separados en
un
aparato
de
HPLC
(High
Performance
Liquid
Chromatography)
utilizando
un
gradiente
desnaturalizante de acetonitrilo y variando la temperatura de la columna. La muestra se injecta en una
columna de cromatografía y el ADN se une a la matriz. El acetonitrilo deshace estas interacciones y el
ADN eluido se detecta a la salida de la columna midiendo la absorbancia a 260 nm, originando un pico a
un tiempo de elución característico. En temperaturas bajas, no desnaturalizantes, la concentración de
acetonitrilo necesaria para eluir un fragmento depende del tamaño y la secuencia del mismo, por lo que
cada fragmento da lugar a un pico de elución característico. Al aumentar la temperatura de la columna,
la elución tiene lugar a concentraciones menores de acetonitrilo, a medida que el fragmento comienza a
desnaturalizarse. Como los heteroduplex se desnaturalizan a temperaturas distintas a los homoduplex,
generan picos a tiempos de elución diferentes. De este modo es posible detectar mutaciones puntuales.
La gran ventaja del DHPLC es su rapidez, ya que los tiempos de elución típicos están en torno a los 5
minutos y una muestra se puede analizar en 10 minutos. Por tanto, conserva la gran sensibilidad de los
métodos de detección de heteroduplex que utilizan un gradiente desnaturalizante (temperatura, en este
caso), pero tiene una procesividad mucho mayor y es fácilmente automatizable.
La figura 17.4 presenta ejemplos del análisis mediante DHPLC.

Rotura de Desemparejamientos (Mismatch Cleavage). Es un método basado en el hecho de que
determinados tratamientos químicos o enzimáticos son capaces de romper un fragmento de ADN
específicamente
en
el
punto
donde
existe
un
desemparejamiento.
Como
hemos
dicho,
los
heteroduplexes son portadores de un desemparejamiento (mismatch) precisamente en el nucleótido
donde está la mutación. Por tanto, el tratamiento con determinadas sustancias romperá el fragmento
190
GENÉTICA HUMANA
sólo en el caso de que existan desemparejamientos, de forma que una electroforesis en gel será
suficiente para comprobar la presencia de una mutación.

PTT (Protein Truncation Test, Prueba de truncamiento de proteínas). Es un método especialmente
dirigido a la detección de mutaciones que crean un codón de parada prematuro y provocan el
truncamiento de la proteína. Para llevar a cabo esta prueba, se prepara ADNc mediante RT-PCR (PCR
tras transcripción reversa del ARN del paciente) utilizando un cebador que contiene la secuencia del
promotor del fago T7 y la secuencia consenso de inicio de la traducción (secuencia de Kozak). Esta
construcción permite realizar la transcripción y traducción in vitro, a partir del producto de la RT-PCR. El
análisis en un gel de acrilamida de los fragmentos proteicos que resultan de la transcripción/traducción
revelará la presencia de una banda correspondiente al tamaño esperado para la secuencia nativa, o
bien otras bandas de menor tamaño correspondientes a todas las posibles mutaciones que provoquen
un truncamiento del producto proteico (mutaciones sin sentido, los cambios del marco de lectura y las
mutaciones que afectan a las secuencias de ayuste).
La figura 17.5 ilustra el fundamento de la técnica de PTT.

Secuenciación. Hoy en día, con la aparición de equipos fluorescentes automatizados y con bajo coste
por reacción, la secuenciación directa de productos de PCR (exones, o incluso la secuenciación directa
de un ADNc obtenido por RT-PCR) es un método cada vez más popular de detección de mutaciones.
Tiene la ventaja de que identifica el tipo de mutación, y de hecho es un paso obligado para identificar
las mutaciones detectadas por los métodos de barrido que acabamos de explicar. Sin embargo, sólo es
realmente fiable cuando el ADN mutado está en una proporción superior al 15-20% del total de ADN
presente en la muestra. Aunque esto se cumple en las enfermedades hereditarias, no es el caso de la
detección de mutaciones en muestras procedentes de tumores, en las que con frecuencia la cantidad de
células tumorales es baja y no todas son portadoras de una mutación concreta.
La figura 17.6 muestra una mutación detectada mediante secuenciación
con terminadores marcados.
CAPÍTULO 17: DIAGNÓSTICO DE ENFERMEDADES GENÉTICAS
191
Cada uno de los métodos de barrido que hemos visto tiene sus ventajas e inconvenientes, sobre todo en lo
referente a la sensibilidad (porcentaje de mutaciones que son capaces de detectar), coste, complejidad
técnica, capacidad de especificar la posición de la mutación, etc. Aunque las características de cada método
se presentan resumidas en la siguiente tabla, la elección de un método u otro dependerá de las
peculiaridades de cada laboratorio, del gen que se quiera estudiar, los medios disponibles y la experiencia
previa con cada uno de los métodos.
MÉTODO
Secuenciación
SSCP
VENTAJAS
INCONVENIENTES
Detecta todas y especifica la
Excesiva información, coste alto,
posición.
laboriosa.
Sencillo.
Secuencias <400bp.
Buena sensibilidad.
No especifica posición.
Cierta complejidad.
DGGE y DHPLC
Muy alta sensibilidad.
Rotura de
Muy alta sensibilidad.
Gran dificultad técnica.
Desemparejamientos
Puede especificar posición.
Toxicidad OsO4.
Alta sensibilidad.
No todos los tipos de mutaciones.
Especifica la posición.
Complejidad técnica, coste.
PTT
No especifica posición.
2. Métodos de comprobación para detectar de la existencia de una mutación específica:

PCR-Digestión. El fundamento de esta técnica reside en el hecho de que la mutación crea o destruye
una diana de restricción, de modo que la simple digestión del producto de PCR con el enzima de
restricción permite determinar, en un gel de agarosa, el patrón de digestión indicativo de la presencia o
ausencia de la mutación. Es un método que, por su sencillez y rapidez, es uno de los más utilizados en
laboratorios clínicos. La principal limitación, lógicamente, es que no todas las mutaciones alteran una
diana de restricción.
La figura 17.7 explica el proceso de detección de una mutación específica
mediante la digestión de un producto de PCR con enzimas de restricción.

ASO (Allele Specific Oligonucleotide, Oligonucleótido Especifico de Alelo). Una técnica bastante utilizada
en los primeros años del diagnóstico molecular, aunque hoy en día ha caído en cierto desuso. Se basa
en el diseño de sondas específicas para el alelo mutado y para el alelo nativo, utilizando
oligonucleótidos. El tamaño de las sondas hace que su Tm (temperatura de desnaturalización) sea lo
suficientemente distinta para que —en determinadas condiciones de hibridación— la sonda específica
del alelo normal hibride solamente con ADN normal, y la sonda específica del alelo mutado hibride
específicamente con ADN genómico que contiene la mutación. El ADN de los pacientes (puede ser tanto
ADN genómico como un exón amplificado mediante PCR) se deposita en membranas de nylon haciendo
un "dot-blot", y esas membranas se hibridan con cada una de las sondas (oligonucleótidos marcados
con radioactividad o con fluorescencia). El análisis de la hibridación de cada sonda permite identificar si
la muestra contiene un solo alelo mutado (heterocigoto), dos alelos mutados (homocigoto para la
mutación), o ninguno (homocigoto sano).
192

GENÉTICA HUMANA
ARMS (Amplification Refractory Mutation System, Sistema de Mutación Resistente a la Amplificación)
está basada en el mismo principio que ASO, es decir, la utilización de oligonucleótidos específicos para
la secuencia normal y para la secuencia mutada. La diferencia estriba en que, en el caso del ARMS,
estos oligonucleótidos son cebadores de PCR. Se diseñan, por tanto, dos reacciones de PCR que
comparten un mismo cebador común pero se diferencian en los cebadores específicos para cada alelo:
un cebador amplificará sólo el alelo normal, el otro cebador amplificará sólo el alelo mutado. Dada la
rapidez y sencillez de la PCR, esta técnica está desplazando cada vez más a la técnica de ASO.

OLA (Oligonucleotide Ligation Assay, Ensayo de Ligación de Oligonucleótidos). Se trata de un método
algo más laborioso, pero que —una vez optimizado— permite analizar gran número de muestras con
rapidez y fiabilidad. Se basa en la ligación de dos oligonucleótidos, uno de los cuales está marcado con
biotina y el otro con una molécula radioactiva o fluorescente. El punto crucial es el diseño de ambos
oligonucleótidos a ambos lados de la base mutada. Por ejemplo, un diseño habitual es que ambos oligos
hibriden sobre la secuencia normal, de modo que la mutación impida la hibridación de uno de ellos.
Como consecuencia, la reacción de ligación sólo será efectiva en presencia de una secuencia normal.
Cuando se separan las sondas y se unen por los residuos de biotina a un soporte que contiene
estreptavidinas, sólo las moléculas completas (fruto de la ligación de los dos oligos) emitirán la señal
correspondiente al marcador (radioactividad o fluorescencia). Por el contrario, el ADN de un sujeto
homocigoto para la mutación no dará ninguna señal. En principio, este método también permite
detectar los individuos heterocigotos para la mutación, ya que la intensidad de la señal emitida será la
mitad de la de un individuo homocigoto normal. El método de OLA permite la automatización y la
cuantificación de la señal cuando se utilizan marcadores fluorescentes, lo que le convierte en un buen
método para el análisis de gran cantidad de muestras.

MLPA (Multiplex Ligation-dependent Probe Amplification) es una modificación del OLA que permite
determinar el número de copias de hasta 45 genes en un solo ensayo, pudiendo discriminar secuencias
que difieren en un solo nucleótido. MLPA utiliza, para cada gen, dos sondas: una de ellas es
complementaria a la secuencia que se quiere estudiar (21-30 nucleótidos), a la que se añade la
secuencia de un cebador universal en el extremo 5'; la otra sonda de la pareja tiene otra secuencia
complementaria a la diana, un ADN de relleno ―que puede ser de distintos tamaños― y la secuencia de
otro cebador universal en el extremo 3'. Ambas sondas hibridan a ambos lados de la secuencia diana, y
son ligadas por una ligasa termoestable. Con un solo cebador se pueden amplificar las sondas que se
han ligado correctamente. Utilizando secuencias de relleno de distintos tamaños para cada gen,
podemos amplificar en una misma reacción muchos fragmentos distintos, lo que ahorra mucho tiempo
y reactivos. Además, como las condiciones de reacción son las mismas, la cantidad final de producto es
proporcional a la cantidad inicial de ADN, por lo que los resultados de MLPA pueden ser cuantificados.
Por tanto, MLPA permite detectar deleciones y amplificaciones, además de detectar mutaciones.
La figura 17.8 resume los principios generales de varios métodos para la
detección
de
mutaciones
específicas,
basados
en
la
utilización
de
oligonucleótidos específicos.
Un comentario final a todas estas técnicas de análisis directo es que pueden aplicarse a ADN procedente de
distintos tipos de muestra, ya que trabajan con secuencias amplificadas mediante PCR. Por tanto, es posible
detectar la presencia de mutaciones no sólo en ADN de sangre periférica, sino también en raspados bucales,
CAPÍTULO 17: DIAGNÓSTICO DE ENFERMEDADES GENÉTICAS
193
vellosidades coriales, cabello, biopsias, material incluido en bloques de parafina o incluso de tarjetas
impregnadas con manchas de sangre (tarjetas de Guthrie, por ejemplo).
El proceso de diagnóstico indirecto de enfermedades genéticas
Como ya se ha mencionado al principio de este capítulo, hay ocasiones en las que no es posible, o resulta
muy poco práctico, llevar a cabo diagnóstico directo. Esto sucede en aquellos casos en los que no se conoce
la secuencia del gen causante de una enfermedad, o cuando éste es excesivamente grande y complejo
(compuesto por muchos exones, por ejemplo). En estos casos todavía podemos predecir si un individuo ha
heredado la enfermedad, estudiando marcadores específicos que nos permitan identificar cuál cromosoma
de los progenitores es el que lleva la mutación. Una vez identificado, simplemente hemos de ver qué
cromosomas han heredado los hijos, para predecir la probabilidad de que también hayan heredado la
mutación. Como no estudiamos directamente el gen, sino marcadores genéticos que nos ayudan a
identificar los cromosomas, se denomina a este proceso "Diagnóstico Indirecto". Para comprender el
diagnóstico indirecto es necesario repasar los conceptos generales de ligamiento genético y su aplicación a
familias humanas que han sido expuestos en el Capítulo 11.
A veces nos enfrentamos con una enfermedad genética cuyo gen causal no ha sido todavía identificado, lo
que obviamente impide realizar diagnóstico directo. En otras ocasiones, aún conociendo el gen que debe
estar mutado, resulta impracticable realizar estudios de diagnóstico directo en la rutina de un laboratorio
clínico, por la gran heterogeneidad alélica que muestra esa enfermedad (un gran número de posibles
mutaciones pueden ser las responsables del cuadro clínico), o en genes con una estructura exónica muy
compleja. Un ejemplo bastante claro es la Distrofia Muscular de Duchenne (DMD), debida a mutaciones en
el gen de la distrofina. Este gen es muy grande (ARNm de 14 kb) y tiene 79 exones distribuidos a lo largo
de 2,3 Megabases de ADN genómico, por lo que el estudio mutacional de cada exón sería excesivamente
laborioso. En este tipo de situaciones, una alternativa muy utilizada es la de establecer si el probando ha
heredado el cromosoma o los cromosomas parentales que llevan el gen mutado, o si por el contrario ha
heredado los cromosomas parentales normales. Para hacer esto se sigue un proceso denominado "gene
tracking", algo así como "seguir la pista" a los alelos enfermos en una familia concreta. Esto se hace
utilizando marcadores polimórficos situados muy cerca o incluso dentro del gen en cuestión, escogiendo
aquellos marcadores que sean informativos en cada familia concreta. Los marcadores son del mismo tipo
que los utilizados en el análisis de ligamiento (RFLP, microsatélites). Utilizando esta estrategia podemos
saber si un individuo ha heredado una mutación de su progenitor enfermo simplemente determinando si ha
heredado el cromosoma mutado de ese progenitor.
Lógicamente, esta estrategia es válida siempre que no haya habido ninguna recombinación entre el locus de
la enfermedad y el locus del marcador, de ahí que utilicemos marcadores tan cercanos al gen que la
frecuencia de recombinación sea prácticamente 0. De hecho, la metodología empleada es la misma
que en los estudios de ligamiento, pero varía la manera de utilizar la información obtenida: mientras en los
estudios de ligamiento queremos determinar la distancia entre dos loci, en el análisis indirecto ya sabemos
cuál es esa distancia (y conocemos por tanto la frecuencia de recombinación) y simplemente utilizamos esa
información para determinar cuál cromosoma ha sido transmitido por cada progenitor a un individuo
concreto de la descendencia. El proceso general que se sigue en el diagnóstico indirecto es el siguiente:
a)
distinguir los dos cromosomas en cada uno de los progenitores: para esto es imprescindible encontrar
un marcador para el que ambos progenitores sean heterocigotos (a poder ser no idénticos), de manera
que esta familia sea totalmente informativa.
194
b)
GENÉTICA HUMANA
resolver la fase de ligamiento en el individuo transmisor: esto supone ser capaces de determinar cuál
de los alelos del marcador segrega con el alelo de la enfermedad (y "viaja", por tanto, en el mismo
cromosoma). Para esto hay que estudiar a los progenitores del individuo transmisor o a su
descendencia y deducir la fase de ligamiento entre el marcador y el gen. Nuevamente, una
recombinación entre ambos loci (enfermedad y marcador) llevaría a resultados erróneos, de ahí la
importancia de usar marcadores cercanos al gen (o intragénicos) de modo que la frecuencia de
recombinación entre ambos sea despreciable.
c)
Determinar el alelo del marcador que ha sido transmitido al probando. Esto nos dirá (con una fiabilidad
mayor o menor dependiendo de la fracción de recombinación entre el marcador y el gen) si se ha
transmitido el cromosoma con el alelo mutado o el alelo normal. Aquí se hace evidente la enorme
utilidad del diagnóstico indirecto: permite establecer si un individuo ha heredado la mutación sin
necesidad de detectar directamente la presencia de la misma. Como hemos comentado, su gran
limitación viene dada porque en ocasiones los marcadores están a cierta distancia del locus de la
enfermedad y las predicciones no son fiables al 100%. Por ejemplo, si la distancia entre el marcador y
el locus de la enfermedad fuese de 5 cM (lo que supone una frecuencia de recombinación del 5%), la
fiabilidad del análisis sólo sería del 95%, ya que en un 5% de los casos podría haberse dado un
sobrecruzamiento entre ambos loci que hubiese trasladado el alelo mutado al cromosoma homólogo. En
la práctica, solventamos esta limitación mediante el uso de varios marcadores, preferiblemente situados
a ambos extremos del locus de la enfermedad. De esta forma, la única posibilidad de error sería un
doble sobrecruzamiento entre el locus de la enfermedad con cada uno de los marcadores, pero la
probabilidad de que esto suceda es prácticamente despreciable. Lógicamente, a mayor número de
marcadores, mayor fiabilidad de los resultados, sobre todo si además se incluyen marcadores situados
dentro del propio gen de la enfermedad.
La figura 17.9 explica el proceso general del diagnóstico indirecto utilizando
marcadores polimórficos en ligamiento con el gen responsable de una
enfermedad genética.
CAPÍTULO 18: GENÉTICA CLÍNICA
195
Capítulo 18. Genética Clínica.
Genética clínica y consejo genético. Enfermedades de herencia autosómica y
de herencia ligada al cromosoma X. Aplicación del teorema de Bayes al
cálculo
de
riesgos
genéticos.
Enfermedades
por
alteración
del
ADN
mitocondrial. Diagnóstico prenatal.
Genética clínica y consejo genético
La genética clínica se ocupa del diagnóstico y atención de las personas y familias en las que aparece una
enfermedad genética. Incluye varios aspectos, algunos de ellos algo diferentes de la práctica médica
habitual:

Diagnóstico correcto de la enfermedad, de lo contrario el cálculo de riesgos genéticos no tiene sentido.
Para ello, además de los métodos clásicos de diagnóstico, es importante realizar bien el diagnóstico
molecular (estudiado en el Capítulo anterior) y reconstruir la historia familiar detallada.

La aplicación de los principios de la genética mendeliana permite calcular el riesgo de recurrencia de la
enfermedad en la misma familia, establecer el pronóstico, iniciar medidas de diagnóstico precoz y de
prevención en individuos de riesgo (antes de la aparición de los síntomas). Por todo esto, la genética
clínica es un pilar básico de la "Medicina predictiva" del futuro.

Un elemento fundamental es el consejo genético, que, según la definición de la Sociedad Americana
de Genética Humana (1975) "es un proceso de comunicación que trata de los problemas humanos
asociados con la ocurrencia, o riesgo de ocurrencia, de un transtorno genético en una familia. Este
proceso requiere que una o más personas adiestradas de forma apropiada ayuden al individuo o familia
a: 1) comprender los hechos médicos, incluyendo el diagnóstico, la evolución probable del transtorno y
el tratamiento disponible; 2) apreciar el modo en que la herencia contribuye al transtorno y el riesgo de
recurrencia en parientes concretos; 3) comprender las alternativas para enfrentarse al riesgo de
recurrencia; 4) escoger un curso de acción que les parezca apropiado a la vista de su riesgo, sus
objetivos familiares y sus normas éticas y religiosas, y actuar de acuerdo con la decisión tomada, y 5)
procurar la mejor adaptación posible a la enfermedad en un miembro afectado de la familia y/o al
riesgo de esta enfermedad". En contraste con el método médico tradicional, en el que el facultativo
prescribe al paciente lo que debe hacer, entre profesionales de la Genética Clínica existe un amplio
consenso a favor de que el consejo genético sea un proceso no-directivo, es decir, que sea el propio
paciente o la familia los que decidan qué acción tomar en función de la información proporcionada por
el facultativo. En este sentido, es importante comprender que la carga de una enfermedad genética
para el paciente y para la familia puede ser valorada de modo muy distinto de unos casos a otros,
dependiendo de varias circunstancias. Es importante explicar bien las posibilidades de modificar la
carga genética o el riesgo genético, y poner a las familias afectadas en contacto con servicios sociales
de apoyo, organizaciones de afectados por la enfermedad, etc.
Las dos herramientas básicas de la genética clínica, que el estudiante debe dominar, son la realización de
la historia familiar y la estimación de riesgos genéticos. La historia familiar es la parte de la historia clínica
en la que se reconstruye el árbol familiar y se intenta identificar otros miembros del mismo que puedan
196
GENÉTICA HUMANA
estar afectados por la enfermedad. Esto permitirá deducir el tipo de herencia y el riesgo de recurrencia. Se
utilizan las reglas generales de construcción de árboles familiares, y además es importante:

Preguntar acerca de nacidos muertos ó abortos espontáneos.

Indagar la existencia de posible consanguinidad.

Tener en cuenta posibles casos de falsa paternidad.

Recoger también información básica de las ramas del árbol que parezcan no estar afectadas.

Siempre es mejor registrar la fecha de nacimiento que la edad.

Tener en cuenta que el diagnóstico puede no ser acertado, sobre todo en el caso de individuos ya
fallecidos. Por tanto, es importante examinar directamente, siempre que sea posible, a los individuos
afectados; examinar a los presumiblemente ―sanos‖, para excluir que en realidad tengan una forma
poco severa de la enfermedad; tratar de obtener toda la información posible de otros parientes más
lejanos.
Por lo que respecta a la estimación del riesgo genético, se expresa siempre como una probabilidad, es
decir en modo fraccional o en porcentaje (un riesgo de ½ es igual a un riesgo del 50%). El riesgo genético
no es más que la probabilidad de padecer la enfermedad que tiene un individuo concreto de la familia,
probabilidad estimada a partir de los datos del árbol familiar que nos permiten deducir el tipo de herencia y
aplicar las leyes mendelianas.
Los patrones hereditarios típicos se pueden reconocer al analizar el árbol genealógico de la familia en la que
hay individuos enfermos, ya que cada tipo de herencia produce árboles familiares con unas características
propias. Para la construcción de árboles familiares, llamados también "genealogías" ó "pedigrís" (por
influencia del término inglés pedigree), se utilizan unos símbolos aceptados por convenio, y se construyen
siguiendo unas reglas que hay que conocer.
La Figura 18.1 muestra los principales símbolos utilizados en la creación de
árboles genealógicos (genealogías o pedigrís).
Enfermedades de herencia autosómica
Las enfermedades autosómicas dominantes suelen tener una frecuencia génica muy baja (la prevalencia
de estas enfermedades es habitualmente inferior a 1/1000 individuos), y por tanto los individuos
homocigotos son extremadamente infrecuentes; de hecho, la homocigosidad para estas enfermedades
es muchas veces letal y provoca abortos espontáneos. El árbol típico de una enfermedad autosómica
dominante muestra individuos enfermos en todas las generaciones, afectando ambos sexos por igual.
Cuando se ve una transmisión de padre enfermo a hijo varón, podemos descartar la presencia de una
enfermedad ligada al cromosoma X. Para calcular el riesgo de padecer la enfermedad en la descendencia, se
utilizan los cuadrados de Punnet, como se muestra en la siguiente figura para el caso de la unión entre un
individuo heterocigoto enfermo (Aa) y un individuo sano (AA), pues este es el tipo de unión más frecuente
en estas enfermedades. Mediante el uso de estos diagramas es fácil concluir que la mitad de la
descendencia serán heterocigotos enfermos (Aa), y la otra mitad homocigotos sanos (AA). Dos individuos
sanos, si efectivamente son homocigotos (veremos alguna excepción más adelante), no pueden tener
descendencia con la enfermedad.
CAPÍTULO 18: GENÉTICA CLÍNICA
197
Ya se ha mencionado antes que es muy poco frecuente encontrar enfermos homocigotos (dos alelos
mutados), pues esto exigiría la unión de dos heterocigotos enfermos. Sin embargo, hay algunas
enfermedades autosómicas dominantes en la que esto sucede con mayor frecuencia de lo habitual, debido a
que tienen una frecuencia génica más alta de lo habitual (no son letales, sino de comienzo tardío, por lo que
permiten llegar a la edad fértil, tener descendencia y propagar la mutación). Un buen ejemplo de lo dicho es
la Hipercolesterolemia familiar, una enfermedad autosómica dominante
debida a mutaciones en el
receptor de las LDL (lipoproteínas de baja densidad) que cursa con niveles altos de colesterol total y
colesterol LDL, xantomas tendinosos, xantelasmas y aterosclerosis precoz. La enfermedad afecta a 1 de
cada 500 individuos de la población, y es causa del 5% de los infartos de miocardio que se producen antes
de los 60 años de edad. Como es una enfermedad que no altera la fertilidad, la frecuencia alélica es alta (en
torno a 1 de cada 1000 alelos presentes en la población están mutados) y no es raro encontrar individuos
homocigotos (en torno a 1 por millón). Los homocigotos están afectados con más gravedad que los
heterocigotos, mostrando niveles más altos de colesterol y mayor riesgo de enfermedad coronaria. El
análisis molecular de los individuos enfermos y de los miembros de su familia permite predecir la gravedad
de la enfermedad, establecer el riesgo en la descendencia y comenzar el tratamiento preventivo con dieta o
fármacos hipolipemiantes. También se pueden encontrar individuos homocigotos en enfermedades
autosómicas dominantes en las que existe una cierta predisposición a las uniones entre individuos
enfermos. Esto último sucede, por ejemplo, en una enfermedad llamada acondroplasia. Los individuos que
sufren esta enfermedad, dada su baja estatura, tienden a formar matrimonios entre ellos, lo que eleva la
probabilidad de que aparezcan sujetos homocigotos.
Las enfermedades autosómicas recesivas requieren, por definición, que los individuos afectados sean
homocigotos (dos alelos mutados) y, por tanto, sus progenitores son habitualmente portadores sanos
heterocigotos. El árbol típico de un patrón autosómico recesivo muestra generaciones con algún miembro
afectado, separadas por generaciones en las que no hay ningún individuo enfermo, patrón muy poco
probable en transtornos dominantes. Se encuentran individuos enfermos de ambos sexos, y es muy
frecuente la presencia de uniones con-sanguíneas (entre individuos que comparten un ancestro común,
como primos, primos segundos, etc).
Un buen ejemplo de enfermedad autosómica recesiva es la Fibrosis Quística del Páncreas, enfermedad
debida a mutaciones en el gen CFTR (Cystic Fibrosis Transmembrane Regulator), localizado en 7q31. La
enfermedad afecta a 1 de cada 2.500 nacidos vivos de raza caucásica, lo que significa una frecuencia alélica
del 0,02 (2% de los alelos presentes en la población están mutados) y una frecuencia de portadores del
0,04 (1 de cada 25 individuos de la población general son heterocigotos). La enfermedad surge por el mal
funcionamiento de un canal de cloro, lo que provoca una mucoviscidosis (secreciones mucosas muy
viscosas) que poco a poco conduce a la destrucción del tejido pulmonar y pancreático, además de provocar
obstrucción intestinal en algunos neonatos. Se conocen alrededor de 400 mutaciones diferentes en el gen
CFTR, pero en poblaciones europeas un 70% de los casos se deben a la deleción F508del, que deleciona 3
bases sin cambiar el marco de lectura:
SECUENCIA NORMAL
GAA AAT ATC ATC TTT GGT GTT
Glu Asn Ile Ile Phe Gly Val
F508del
GAA AAT ATC AT- --T GGT GTT
Glu Asn Ile Ile
Gly Val
198
GENÉTICA HUMANA
Además de F508del, hay otras mutaciones que causan Fibrosis Quística y que se encuentran con frecuencia
alélica mayor a 1%, de modo que el análisis de 8 mutaciones (incluyendo F508del) puede detectar hasta un
85-90% de los casos en poblaciones de origen europeo.
La Figura 18.2 muestra los árboles genealógicos típicos de las enfermedades
con herencia autonómica dominante y autonómica recesiva.
I
II
1
2
3
4
5
6
1
2
3
4
5
6
7
8
III
I
1
7
8
2
II
1
III
2
4
3
1
5
2
IV
?
1
2
3
4
Hay una serie de fenómenos —muchos de los cuales ya se han mencionado— que complican la
evaluación de los árboles de enfermedades autosómicas dominantes y recesivas, y hacen que el
cálculo de los riesgos en la descendencia sea menos fiable. A continuación se señalan los problemas más
frecuentes:

Heterogeneidad genética de locus. Ya se ha mencionado que muchas enfermedades hereditarias
pueden estar causadas por mutaciones en genes distintos, y se han visto algunos ejemplos. Esto se
manifiesta, habitualmente, en la aparición de distintos patrones de herencia en familias diferentes. Así,
por ejemplo, hemos visto un tipo de enfermedad de Charcot-Marie-Tooth que sigue un patrón
autosómico dominante (por duplicaciones del gen PMP22), pero también existen familias en las que
esta enfermedad sigue un patrón ligado al sexo (por mutaciones en otro gen situado en el cromosoma
X). Otro ejemplo notable es el Síndrome de Ehlers-Danlos, que puede estar causado por mutaciones
en al menos 8 loci diferentes, dando lugar a familias con patrón autosómico dominante, autosómico
recesivo o ligado al sexo recesivo, dependiendo del gen implicado en cada caso. Lógicamente, la
identificación del tipo de herencia en una familia concreta nos ayudará a predecir el gen afectado (y
buscar mutaciones en el mismo, si es posible) y a estimar el riesgo de padecer la enfermedad en la
descendencia.
CAPÍTULO 18: GENÉTICA CLÍNICA

199
Penetrancia incompleta. Hasta ahora hemos dado por supuesto que siempre que un gen está mutado
se desarrollará la enfermedad correspondiente. Por desgracia para el profesional de la Medicina (pero
por suerte para los pacientes), esto no se cumple en el 100% de los casos. De hecho, no es infrecuente
encontrar árboles en los que un individuo ha transmitido una enfermedad dominante sin haber estado
él mismo afectado por dicha enfermedad. En la figura puede observarse una familia afectada por una
enfermedad autosómica dominante en la que el individuo II-4 (señalado por la flecha) ha heredado y
transmitido la mutación, pero no ha llegado a desarrollar la enfermedad. Descartando la posibilidad de
que se trate de una nueva mutación que ha surgido en ese individuo, ya que esa misma enfermedad
estaba ya presente en los progenitores, hemos de concluir que este individuo es portador de la
mutación pero no expresa la enfermedad. Este fenómeno se denomina "penetrancia incompleta", y es
característico de algunas enfermedades dominantes, como por ejemplo el Retinoblastoma hereditario.

Expresividad variable. Muchas enfermedades hereditarias tienen manifestaciones clínicas complejas,
con signos y síntomas que se pueden presentar en distintas combinaciones y con distinto grado de
severidad. Se dice entonces que estas enfermedades tienen expresividad clínica variable. En algunos
casos, como por ejemplo la Neurofibromatosis tipo 1, distintos miembros de una misma familia (todos
con la misma mutación), pueden tener manifestaciones clínicas de la enfermedad muy dispares. No
tenemos hoy en día una explicación clara para el fenómeno de la distinta expresividad de una misma
mutación, pero es probable que esté originado por factores ambientales que influyen en el desarrollo de
la enfermedad o por diferencias inter-individuales en otros genes que modifican la expresión del
fenotipo.
En la Figura 18.3 se ilustran los conceptos de penetrancia incompleta y
expresividad variable.
Por lo que respecta al cálculo de riesgos, podemos resumir:

Las enfermedades de herencia autosómica dominante tienen, en general, frecuencias alélicas muy
bajas (<0,001) y por eso los individuos homocigotos (ambos alelos mutados) son muy raros. Lo normal
es encontrar cruces entre un heterocigoto y un homocigoto sano, por lo que el riesgo en la
descendencia es de 50% heterocigotos enfermos y 50% homocigotos sanos. Por eso, para cada hijo el
riesgo de recurrencia es del 50%, aunque siempre hay que tener en cuenta los factores que pueden
modificar estos riesgos (penetrancia incompleta, expresividad variable, tasa de nuevas mutaciones).

En enfermedades de herencia autosómica recesiva, ambos progenitores tienen que ser al menos
portadores, por lo que en la descendencia habrá 25% de enfermos (homocigotos con mutación), 25%
de sanos (homocigotos sin mutación) y 50% de portadores sanos (heterocigotos). Por tanto, el riesgo
de recurrencia es inicialmente ¼ (25%). Es importante recordar que la presencia de consanguinidad es
un hecho muy frecuente en estas enfermedades. Más raramente hay matrimonios entre un portador
sano y un enfermo homocigoto, en cuyo caso se produce un patrón de herencia cuasi-dominante con
50% de enfermos y 50% de portadores sanos en la descendencia. Una causa frecuente de consulta en
el caso de enfermedades de herencia autosómica recesiva es el matrimonio entre un portador y un
individuo de otra familia distinta en la que no existe la enfermedad. Lógicamente, el riesgo final para la
descendencia dependerá fundamentalmente de la probabilidad que tenga este individuo de ser
portador, lo cual, a su vez, depende de la tasa de portadores en la población general. Como se
recordará, la ley de Hardy-Weinberg permite estimar esta tasa en función de la prevalencia de la
enfermedad en esa población.
200
GENÉTICA HUMANA
En la Figura 18.4 se muestran los cuadrados de Punnet que ayudan a calcular
el riesgo de recurrencia en enfermedades de herencia autonómica dominante
y recesiva.
Enfermedades de herencia ligada al cromosoma X
Al igual que las enfermedades autosómicas, las enfermedades ligadas al sexo pueden ser recesivas o
dominantes. Lo más habitual es encontrar enfermedades de herencia ligada al sexo recesivas, en las que
las mujeres portadoras son sanas. El árbol típico muestra únicamente varones enfermos, habitualmente sin
transmisión de la enfermedad de un padre a sus hijos varones. Se pueden dar 3 situaciones, cuyos
cuadrados de Punnet se presentan a continuación. En primer lugar, la unión entre una mujer portadora (Aa)
y un varón sano (A—) dará lugar a un 50% de hijas homocigotas sanas y un 50% de heterocigotas
portadoras, mientras que el 50% de los hijos varones serán sanos y el otro 50% serán enfermos. En el caso
de uniones entre una mujer portadora sana (Aa) y un varón enfermo (a—), los hijos varones tendrán los
mismos riesgos que en el caso anterior (la mitad sanos y la mitad enfermos), pero las hijas serán
homocigotas (enfermas, por tanto) en el 50% de los casos y portadoras sanas en el otro 50%. Por último,
las uniones entre un varón enfermo (a—) y una mujer homocigota sana (AA) dan lugar a una descendencia
en la que todos los hijos son sanos y todas las hijas son portadoras sanas. Como puede apreciarse, es
importante distinguir las mujeres sanas que son homocigotas de aquellas que son heterocigotas portadoras.
Ya hemos comentado que la inactivación del cromosoma X se realiza al azar en células somáticas, de forma
que toda mujer es, en el fondo, un mosaico con poblaciones celulares en las que se ha inactivado un
cromosoma X y poblaciones celulares en las que se ha inactivado el otro. Sin embargo, en algunas
circunstancias la inactivación puede ser preferencial, inactivándose el mismo cromosoma X en todas
las células. Esto sucede, por ejemplo, en casos de anomalías estructurales (deleciones o duplicaciones) que
afectan a uno de los cromosomas X, en cuyo caso suele inactivarse el cromosoma anormal. En cambio, en
individuos
con
translocaciones
equilibradas
entre
el
cromosoma
X
y
un
autosoma
se
inactiva
preferencialmente el cromosoma normal, ya que de lo contrario se produciría a una monosomía parcial del
autosoma implicado en la translocación. También se ha visto inactivación sesgada en algunas familias con
deleciones que afectan a XIST o a TSIX, así como en familias con mutaciones que afectan al promotor de
XIST. En algunos casos raros de enfermedades ligadas al sexo recesivas, la inactivación preferencial del
cromosoma X normal en mujeres portadoras (que deberían ser fenotípicamente sanas) puede dar a lugar a
la aparición de la enfermedad, aunque habitualmente con unas manifestaciones más leves.
La Distrofia Muscular de Duchenne (DMD) es quizás uno de los mejores ejemplos de enfermedad ligada al
sexo recesiva. Esta causada por mutaciones en el gen de la distrofina, localizado en Xp21, y afecta a 1 de
cada 3.300 varones en todos los grupos étnicos. La ausencia de distrofina provoca la desestructuración del
Complejo Asociado a la Distrofina (DAC) del sarcolema y conduce a la aparición de una degeneración
muscular progresiva que suele terminar con la vida del paciente alrededor de la tercera década de la vida.
Como se recordará, el gen DMD es uno de los de mayor tamaño conocido, lo que condiciona una alta tasa
de nuevas mutaciones (en torno a 10—4 nuevas mutaciones por generación). Alrededor del 60% de las
mutaciones son deleciones (con tamaños que van desde varias kilobases hasta una megabase), con un
"punto caliente" (hot spot) de aparición de deleciones en el exón 7. El resto de las mutaciones son
deleciones pequeñas y mutaciones puntuales que alteran el marco de lectura. La distrofia muscular de
Becker es un fenotipo más leve causado por mutaciones en el mismo gen, pero en este caso las
CAPÍTULO 18: GENÉTICA CLÍNICA
201
mutaciones NO rompen el marco de lectura (deleciones pequeñas y mutaciones puntuales con cambio de
sentido).
El árbol típico de las enfermedades con herencia ligada al sexo dominante muestra una estructura similar
al de las enfermedades autosómicas dominantes, con la peculiaridad de que nunca hay transmisión
padre-hijo, pero en cambio todas las hijas de los varones enfermos son heterocigotas enfermas. Por el
contrario, desarrollará la enfermedad el 50% de los hijos y el 50% de las hijas de una mujer portadora y un
varón normal. En general, los árboles suelen mostrar la presencia del doble de mujeres enfermas que de
varones enfermos, excepto en aquellos casos en que la enfermedad es letal en varones. De todas formas,
las mujeres suelen desarrollar formas más leves de la enfermedad, debido a que el 50% de sus células
habrán inactivado el cromosoma X portador de la mutación y expresarán el alelo normal del gen implicado.
Algunos ejemplos de estas enfermedades son el Síndrome de Rett, el Raquitismo Hipofosfatasémico, o la
Incontinencia Pigmentaria tipo 1 (enfermedad en la que sólo se ven mujeres afectadas, probablemente por
letalidad embrionaria en varones).
En la Figura 18.5 se muestran los pedigrís típicos de enfermedades ligadas al
sexo recesivas y dominantes.
I
1
2
II
1
2
4
3
5
III
1
2
3
4
5
IV
1
2
Un patrón hereditario anómalo, dentro de las enfermedades ligadas al cromosoma X, es el que presentan
las familias con Síndrome del X Frágil. El estudio del árbol de una familia con esta enfermedad pone de
manifiesto un patrón de herencia dominante con penetrancia reducida en mujeres, además de otros hechos
que constituyen lo que se conoce como "paradoja de Sherman": 1) el riesgo de transmisión de la
enfermedad aumenta en sucesivas generaciones, y 2) se encuentran varones normales que transmiten la
enfermedad a todas sus hijas, que serán por tanto portadoras sanas. Como hemos comentado en otro
Capítulo, hoy en día sabemos que esta enfermedad está causada por la expansión de un trinucleótido en el
gen FMR1, con alelos que varían en el número de veces que está repetido el trinucleótido. La presencia de
premutación (rango de 50 a 230 repeticiones) no provoca manifestaciones fenotípicas en los portadores
(tanto varones como mujeres). La expansión de estos alelos premutados sólo se produce por vía materna, y
la probabilidad de que esto suceda depende de la longitud del alelo premutado.
La Figura 18.6 ilustra la paradoja de Sherman, mostrando en un árbol los
riresgos de expansión a mutación completa dependiendo del tamaño de la
premutación y del sexo.
202
GENÉTICA HUMANA
En general podemos afirmar que la expansión de pre-mutación a mutación completa tiene lugar en
menos del 20% de los alelos <70 repeticiones y en más del 70% de los alelos >90 repeticiones. Como se
recordará, la expansión a mutación completa va acompañada de hipermetilación del promotor del gen
FMR1, lo que provoca la ausencia de la proteína. Aunque la mutación provoca una pérdida de función del
gen, el fenotipo es dominante (basta un alelo con la mutación completa para desarrollar la enfermedad). De
hecho, la presencia de un cromosoma con mutación completa e hipermetilación se asocia con retraso
mental en todos los varones y en el 50-70% de las mujeres (por la inactivación del X, muchas células
habrán inactivado el cromosoma X mutado). Las mujeres que llevan un alelo con pre-mutación no suelen
desarrollar la enfermedad, pero tienen riesgo de sufrir expansión en su descendencia. Por el contrario, los
varones con pre-mutación —denominados Varones Transmisores Normales (NTM, Normal Transmitting
Male)— transmiten el alelo premutado, sin sufrir expansión, a todas sus hijas (que serán portadoras sanas),
y —como es lógico— no lo transmiten a ninguno de sus hijos. Recientemente se ha encontrado que estos
varones desarrollan una enfermedad neurológica llamada FXTAS (síndrome de temblor/ataxia asociado con
el X-frágil) en las últimas décadas de la vida. Estos individuos muestran inclusiones cerebrales con aumento
del mRNA y de la proteína FMRP, además de otras proteínas como laminina A/C. Esta enfermedad es un
bello ejemplo de cómo la identificación del mecanismo molecular genético ha permitido explicar una serie de
fenómenos clínicos y hereditarios de difícil comprensión.
El cálculo de riesgos en las enfermedades de herencia recesiva ligada al cromosoma X, por tanto, debe
hacerse teniendo en cuenta que las mujeres portadoras (heterocigotas) son sanas pero los varones
hemicigotos (con una mutación en su único cromosoma X) son enfermos. En el caso de mujeres portadoras,
la mitad de sus hijos varones serán enfermos y la otra mitad sanos; de sus hijas, la mitad serán portadoras
y la otra mitad homocigotas sanas. Es característico que nunca hay transmisión de padre enfermo a
hijos varones, lo cual es muy importante para el consejo genético. En cambio, el 50% de las hijas de un
varón enfermo serán portadoras (sanas), pero ninguna será enferma. La excepción a esta regla general es
el matrimonio de un varón enfermo con una mujer portadora, lo cual sucede a veces en casos de
consanguinidad. En estos casos puede haber mujeres enfermas (heredan dos mutaciones) e incluso
transmisión de padre enfermo a hijo varón (aunque, en realidad, el hijo hereda la enfermedad de su
madre). Por lo que respecta a la herencia ligada al X dominante, el matrimonio entre una mujer enferma
(heterocigota) y un varón normal produce una descendencia con riesgo de recurrencia en el 50% de los
hijos y en el 50% de las hijas. En cambio, el matrimonio entre un varón afectado y una mujer normal da
lugar a un riesgo del 100% de recurrencia en las hijas (todas heredan el cromosoma X paterno, que
transmite la mutación), pero todos los hijos varones serán sanos.
Teorema de Bayes y su aplicación al cálculo de riesgos genéticos
En algunas situaciones, los riesgos de recurrencia calculados según los principios mendelianos pueden ser
matizados y precisados por información adicional acerca de esa familia. Por este motivo, el consejo genético
hace uso de la estadística bayesiana, derivada de la aplicación del teorema de Bayes. En su formulación
general, el teorema de Bayes dice que:
P(A) x P(B|A)
P(A|B) =
 P(A) x P(B|A)
Esto significa que la probabilidad de un suceso A cuando se verifica una condición B (eso se representa
como "A sobre B") es igual a la probabilidad inicial del primer suceso, multiplicado por la probabilidad de
CAPÍTULO 18: GENÉTICA CLÍNICA
203
que la condición B se verifique en presencia del suceso A, dividido por la probabilidad total de la condición B
(que es el sumatorio de todos los posibles numeradores). Es decir, la probabilidad inicial ó teórica de un
suceso cualquiera puede ser modificada si se cumple alguna condición que afecta a ese suceso, dependiendo
de la probabilidad de esa condición y de la probabilidad de que cuando tal condición se cumple se vea
afectado el suceso inicial. Este tipo de análisis estadístico tiene aplicación en muchos campos, pero en el
caso concreto del consejo genético es especialmente útil en el cálculo de riesgos de recurrencia de
enfermedades recesivas ligadas al cromosoma X, en las que podemos incluir información de tipo
condicional. También es posible incorporar los datos del diagnóstico molecular para matizar los riesgos de
recurrencia calculados según los principios mendelianos, como veremos en algunos ejemplos.
Quizás el ejemplo más sencillo de cómo utilizar la información derivada de árboles genealógicos para
modificar los riesgos iniciales sea el cálculo del riesgo de ser portador de una enfermedad autosómica
recesiva. Como sabemos por los principios mendelianos, cualquier hermano o hermana de un afectado con
una enfermedad autósomica recesiva, cuyos progenitores son portadores sanos, tiene una probabilidad
inicial del 50% de ser portador sano, 25% de ser homocigoto sano y 25% de ser homocigoto enfermo. En
cambio, puede darse el caso de que nos encontremos una familia en la uno de los hermanos es sano, y
claramente no ha desarrollado la enfermedad. En ese individuo, lógicamente, podemos despreciar el 25%
de probabilidad de ser enfermo, porque de hecho está sano. En efecto, sólo hay dos posibilidades de ser
hermano sano de un afectado por una enfermedad autosómica recesiva: o ser portador (probabilidad inicial
del 50%) o ser homocigoto sano (probabilidad inicial del 25%). De este 75% total, un 50% corresponde a la
probabilidad de ser portador, luego el riesgo que tiene un hermano sano de ser portador de la enfermedad
no es 50%, como inicialmente cabría suponer, sino realmente 2/3. Esto, que se comprende modo intuitivo,
supone realmente una aplicación del teorema de Bayes. En efecto, la probabilidad (P) inicial de ser portador
sano es ½ y de ser homocigoto sano es ¼, como acabamos de ver. Establecemos la condición ("si el
individuo es SANO") y calculamos la probabilidad condicional para cada estado posible: en este caso, la
probabilidad condicional es 1 (100%) siempre, ya que tanto un portador sano como un homocigoto sano
son sanos. Si hacemos una tabla en la que indicamos las probabilidades bajo cada una de las dos posibles
situaciones, obtenemos algo como lo que se muestra a continuación. Un individuo portador tiene una
probabilidad inicial (a priori) del 50% de ser sano, y si cumple la condición de estar sano su probabilidad
condicional (estar sano) es del 100% (P=1); lo mismo puede calcularse para un homocigoto sano
(probabilidades inicial y condicional de ¼ y 1, respectivamente). A continuación se calcula la probabilidad
combinada ó conjunta de que ambos sucesos tengan lugar a la vez, es decir, se multiplican la probabilidad
inicial y la condicional. La probabilidad conjunta corresponde al término P(A) x P(B|A) de la ecuación
anterior. Como vemos en la tabla, las probabilidades conjuntas son 1/2 y 1/4, respectivamente, para el caso
de ser portador sano o de ser homocigoto sano:
Portador
Inicial
Condicional ("si es sano")
1/2
Homocigoto (sano)
1/4
1
1
Conjunta
1/2
1/4
Final
2/4 ÷ 3/4=2/3
1/3
La suma de todas las posibles probabilidades conjuntas (el sumatorio que está en el denominador de la
ecuación) es, en nuestro caso, 3/4 (1/2 + 1/4). Por tanto, la probabilidad final se calcula hallando el
cociente entre la probabilidad conjunta de cada situación y la suma de todas ellas. En nuestro ejemplo, la
204
GENÉTICA HUMANA
probabilidad final de que el hermano de un enfermo con una enfermedad autosómica recesiva sea portador
de la misma, si es sano, es de (1/2) ÷ (3/4) = 2/3, y la probabilidad final de que sea homocigoto sano es
1/3. Como se puede ver, los riesgos no siempre son algo fijo, sino que en ocasiones pueden modificarse, a
veces de manera sustancial, con la incorporación de nueva información.
El teorema de Bayes también se utiliza con frecuencia para calcular el riesgo derivado de pruebas
diagnósticas bioquímicas o moleculares, y puede combinarse con la información obtenida del árbol
genealógico. Por ejemplo, si se sabe que una enfermedad tiene una prevalencia de 1/100.000 individuos, la
probabilidad inicial de padecerla es P(A)=10-5. Si una prueba diagnóstica es positiva en el 80% de los
individuos enfermos y en un 5% de sanos (falsos positivos), podemos calcular la probabilidad de que un
individuo en el que la prueba es positiva realmente padezca la enfermedad. Para esto, calculamos la
probabilidad de tener alterada la prueba si uno está enfermo: P(B|A)=0,8. Igualmente, la probabilidad de
tener alterada la prueba si uno está sano es 0,05 (obsérvese el uso del condicional para calcular las
probabilidades condicionales). La probabilidad final de que un sujeto tenga la enfermedad y además una
prueba diagnóstica positiva es, por tanto, el producto de la probabilidad inicial de enfermar multiplicado por
la probabilidad condicional de tener alterada la prueba si está realmente enfermo, dividido por la
probabilidad de que el marcador esté alterado en general (la suma de ambas probabilidades conjuntas):
Enfermo
-5
Inicial
10
Condicional
0,8
Sano
0,99999
0,05
-5
Conjunta
0,8 x 10
0,0499995
Final
(0,8 x 10-5) ÷ 0.0500075 = 1.6 x 10-4
Obsérvese que hemos multiplicado por más de diez el riesgo inicial, en aquellos casos en los que la prueba
diagnóstica está alterada.
En cualquier caso, la situación en la que más se utiliza el teorema de Bayes en consejo genético es para el
cálculo del riesgo de ser mujer portadora en las enfermedades con herencia ligada al X recesiva,
ya que en estos casos el riesgo puede modificarse sustancialmente. En estas familias es importante
identificar correctamente la mujeres portadoras obligatorias (aquellas que han tenido al menos un hijo
enfermo o una hija portadora) y asignar la información condicional correctamente, sobre todo en el caso de
estudios moleculares de análisis indirecto.
La Figura 18.7 ilustra la aplicación del teorema de Bayes al cálculo de riesgos
en enfermedades de herencia ligada al X recesiva, utilizando algunos
ejemplos prácticos.
Enfermedades por alteración del ADN mitocondrial
El ADNmt presenta una serie de características genéticas que lo diferencian claramente del ADN nuclear:
CAPÍTULO 18: GENÉTICA CLÍNICA

205
Alta tasa de mutación: La tasa de mutación espontánea del ADNmt es unas 10 veces superior a la del
ADN nuclear. Por tanto, hay una gran variación de secuencias entre especies e incluso entre individuos
de una misma especie. En el hombre se ha calculado que dos individuos escogidos al azar tienen como
promedio 50-70 nucleótidos diferentes en su genoma mitocondrial. Además de estas diferencias, en un
individuo determinado se está produciendo continuamente, a lo largo de la vida, una heterogeneidad en
el ADNmt como consecuencia de las mutaciones que se están dando en las células somáticas. Se ha
propuesto que una acumulación de este daño mitocondrial pudiera ser la causa de la disminución en la
capacidad respiratoria de los tejidos que tiene lugar durante el envejecimiento.

Poliplasmia y Segregación mitótica: En cada célula hay cientos o miles de moléculas de ADNmt. En
principio, todas las células de un individuo normal tienen moléculas idénticas de ADNmt, situación que
se denomina homoplasmia. Si en una célula aparecen dos poblaciones de ADNmt, una normal y otra
mutada, se dice que estamos en una situación de heteroplasmia.
Durante la división celular, las
mitocondrias —y, por tanto, las moléculas de ADNmt— se distribuyen al azar entre las células hijas.

Efecto umbral: El fenotipo de una célula en heteroplasmia dependerá del porcentaje de ADN dañado
que exista en la célula; es decir, del grado de heteroplasmia de una mutación. Cuando el número de
moléculas de ADNmt mutadas es pequeño, el ADNmt normal es capaz de mantener la función
mitocondrial. Sin embargo, cuando el número de copias de ADNmt mutado sobrepasa un umbral
determinado, la producción de ATP puede llegar a estar por debajo de los mínimos necesarios para el
funcionamiento de los tejidos, llevando al desarrollo de patología mitocondrial. Es importante tener en
cuenta que los distintos tejidos pueden variar en el grado de homoplasmia o heteroplasmia para un
ADNmt mutado, lo que origina una gran variabilidad en la expresividad clínica de las enfermedades
mitocondriales. Por otra parte, los tejidos tienen distintas necesidades energéticas, y el número de
orgánulos y de moléculas de ADNmt es también diferente en cada tejido. Por tanto, los órganos
preferentemente afectados en las enfermedades mitocondriales son aquellos que dependen en mayor
grado de la producción de energía para su correcto funcionamiento.

Herencia materna: El ADNmt se hereda exclusivamente por vía materna. La pequeña cantidad de
genoma mitocondrial contenido en el espermatozoide raramente entra en el óvulo fecundado, y cuando
lo hace es eliminado activamente. El tipo de herencia matrilineal es bastante fácil de reconocer al
examinar un árbol genealógico, y tiene importantes consecuencias en el consejo genético (ver más
adelante).
Por lo que respecta a las enfermedades humanas debidas a mutaciones del ADNmt, podemos dividirlas en
dos grandes grupos: enfermedades asociadas a mutaciones puntuales y enfermedades debidas a
alteraciones estructurales del ADNmt. Las enfermedades asociadas a mutaciones puntuales son
frecuentes, debido a la alta tasa de mutación del ADNmt. Actualmente se han descrito más de 50
mutaciones puntuales, que se localizan en los tres tipos de genes codificados en el ADNmt (ARNr, ARNt y
polipéptidos del OXPHOS). Según su efecto patogénico, distinguimos las mutaciones que originan el cambio
de un aminoácido por otro, afectando a alguno de los 13 genes codificantes de proteínas, y las mutaciones
que afectan a los genes de los ARNr ó ARNt, que tienen efectos globales en la síntesis de las proteínas
mitocondriales. Las enfermedades asociadas a alteraciones estructurales del ADNmt pueden ser tanto
deleciones más o menos grandes como, menos frecuentemente, inserciones y/o duplicaciones. Hasta el
momento se han descrito varios cientos de reordenaciones del ADNmt, que —al contrario que las
mutaciones puntuales— suelen ser esporádicas. Como regla práctica, podemos decir que en aquellos
casos que muestran herencia matrilineal ha de sospecharse la presencia de mutaciones
puntuales del ADNmt; en casos esporádicos, en cambio, son más frecuentes las deleciones y/o
206
GENÉTICA HUMANA
duplicaciones. Si, por el contrario, se confirma un patrón de herencia autosómico dominante, el
estudio debe ir dirigido hacia la búsqueda de deleciones múltiples; si fuese autosómico recesivo,
deben buscarse depleciones del ADNmt.
La Figura 18.8 muestra las mutaciones puntuales más frecuentes del ADN
mitocondrial.
La detección de mutaciones puntuales se realiza habitualmente por digestión de fragmentos de PCR con
enzimas de restricción sensibles al cambio de nucleótido introducido por la mutación. En cualquier caso,
resulta más fiable la detección mediante Southern del ADNmt digerido con enzimas de restricción específicas
para cada una de las mutaciones concretas, pero esto no siempre es posible y, por otra parte, es más
laborioso.
Las deleciones se encuentran siempre en heteroplasmia, aunque pueden llegar a constituir un
porcentaje muy alto de la población de ADNmt. Su determinación se hace fundamentalmente en biopsias
musculares, pero si la afectación es muy grave se pueden llegar a detectar también en sangre periférica.
Las deleciones se detectan con relativa facilidad por la técnica de Southern, que muestra poblaciones de
ADNmt de menor tamaño que el normal (16.569 pb). Se emplea habitualmente ADNmt digerido con BamHI
o con EcoRV, utilizando como sonda un gran fragmento de ADNmt obtenido mediante PCR de largo alcance.
El diagnóstico de depleción del ADNmt se realiza también por hibridación Southern, comparando los
niveles de ADNmt con los de ADN nuclear.
La confirmación molecular de una alteración del ADNmt ayuda a establecer el diagnóstico de enfermedad
mitocondrial y el patrón de herencia matrilineal. Esto tiene una importancia capital desde el punto de vista
del consejo genético y el cálculo del riesgo de recurrencia de la enfermedad, ya que la herencia matrilineal
está caracterizada por la transmisión exclusivamente por vía materna. Esto hace que tenga algunas
características especiales: se afectan ambos sexos, pero los varones -enfermos o no- nunca transmiten
la enfermedad, y sus descendientes (hijos o hijas) no son portadores; por otro lado, las mujeres
afectadas transmiten la enfermedad a toda su descendencia, de forma que todas sus hijas tienen
riesgo de transmitir y/o padecer la enfermedad, y todos sus hijos tienen riesgo de padecerla.
La Figura 18.9 muestra un árbol genealógico típico de herencia matrilineal.
CAPÍTULO 18: GENÉTICA CLÍNICA
207
Las enfermedades mitocondriales pueden deberse a defectos en genes nucleares o a alteraciones del propio
genoma mitocondrial. La diferencia entre ambos tipos de procesos es importante porque los tipos de
herencia son diferentes y las implicaciones para el cálculo de riesgos pueden ser grandes. Dada la
importancia del metabolismo oxidativo, las enfermedades mitocondriales presentan gran variedad de
síntomas y signos, y suponen un problema diagnóstico importante. En general encontramos afectación
neuromuscular: neuropatía óptica, convulsiones, accidentes cerebrovasculares, mioclonías, neuropatía
periférica, ataxia, demencia, miopatías. De todas formas, los pacientes con enfermedad del ADN
mitocondrial pueden agruparse en tres categorías:

Raramente se presenta como un síndrome fácilmente identificable: MELAS (encefalopatía
mitocondrial con acidosis láctica y episodios de accidentes cerebrovasculares) muestra estatura baja,
sordera bilateral, diabetes, convulsiones, accidentes cerebrovasculares y encefalopatía en la 3ª o 4ª
décadas de la vida. LHON (Leber hereditary optic neuropathy) muestran fallo visual bilateral en la 2ª3ª décadas. Otras presentaciones clásicas son la oftalmoplegia externa con o sin ptosis, que aparece
junto con una miopatía proximal en CPEO (chronic progressvie external ophtalmoplegia) o con ataxia,
sordera bilateral y defectos de conducción cardíaca en el Síndrome de Kearns-Sayre. Otros
síndromes son NARP (neurogenic weakness, ataxia, retinitis pigmentosa) y MERRF (epilepsia
mioclónica y ragged-red-fibers o fibras musculares rojas deshilachadas).

Un segundo grupo de pacientes tienen una constelación de datos clínicos que sugieren enfermedad
mitocondrial, pero no encajan en ninguno de los síndromes citados. Por ejemplo, son típicos los casos
de estatura baja con sordera neurosensorial bilateral, oftalmoplegia con ptosis, diabetes y migrañas. Es
necesario un estudio neurológico exhaustivo, y la asociación de cualquiera de estos datos con miopatía
o signos de afectación neurológica central hace el diagnóstico de enfermedad mitocondrial muy
probable. Sin embargo, lo más habitual es que estos pacientes sean estudiados para descartar gran
cantidad
de
enfermedades
neurológicas
hereditarias
autosómicas
(alguna
forma
de
ataxia
espinocerebelosa, estadíos iniciales de la enfermedad de Huntington, síndrome de Usher, CharcotMarie-Tooth) antes de que se llegue a pensar en enfermedad mitocondrial. Un diagnóstico común en
estos pacientes es el de ―myastenia congénita‖.

El último gran grupo de enfermos es el más difícil de definir, y está constituído por pacientes con
síntomas aislados que -después de un estudio exhaustivo- terminan achacándose a patología
mitocondrial. Por ejemplo, un cierto porcentaje de accidentes cerebrovasculares juveniles son resultado
de patología mitocondrial, pero además la presentación a menudo es extra-neurológica: cardiomiopatía
hipertrófica, enfermedad tubular renal, hipoparatiroidismo, insuficiencia suprarrenal, diabetes, disfagia.
La sordera familiar neurosensorial progresiva es frecuentemente debida a patología mitocondrial, como
demostró el grupo de Xavier Estivill en 70 familias españolas con la mutación del nucleótido 1555.
Entre las pruebas diagnósticas que resultan útiles para llegar al diagnóstico de patología mitocondrial,
contamos con las siguientes:

Investigaciones generales: habitualmente, estos pacientes han sido sometidos a gran catidad de
tests. Es necesario ver la función cardíaca, test de tolerancia a glucosa, nivel de lactato en sangre (es
más específico en el líquido cefalo-raquídeo), electroencefalograma para detectar encefalopatía
subaguda, TAC cerebral (es común la calcificación bilateral de ganglios basales).

Investigaciones
específicas:
detección
de
alteraciones
en
el
ADN
mitocondrial,
tanto
reordenamientos (deleciones, duplicaciones) como mutaciones puntuales. Lo más habitual es que las
208
GENÉTICA HUMANA
mutaciones estén en heteroplasmia, y esto determina la expresividad fenotípica (habitualmente es
necesario >85% de ADNmt mutado para que se manifieste la enfermedad). Las mutaciones letales sólo
pueden estar en heteroplasmia, pero en general el porcentaje de heteroplasmia varía en distintos
órganos en un mismo individuo e incluso también con la edad, de ahí la enorme variabilidad clínica. En
algunas entidades es relativamente sencilla la detección molecular: por ejemplo, hay 3 mutaciones que
en conjunto explican el 95% de los pacientes con LHON. En cambio, las deleciones responsables de los
síndromes de CPEO o Kearns-Sayre no son detectables en sangre, por lo que los resultados negativos
han de ser interpretados con cautela. En estos casos, la biopsia de músculo esquéletico es la piedra
angular para el diagnóstico de patología mitocondrial: por un lado, la detección histoquímica de fibras
deficientes en COX y en otros complejos de la cadena respiratoria confirma la afectación mitocondrial;
además, los estudios moleculares en ADN muscular confirman la presencia de deleciones o de
mutaciones puntuales.
Diagnóstico prenatal
El avance de las técnicas diagnósticas genéticas permite hoy en día, para determinados procesos, realizar
diagnóstico precoz dentro del útero. Esta modalidad diagnóstica, llamada diagnóstico prenatal, es con
frecuencia causa de la petición de consejo genético, y tiene unos matices especiales por las implicaciones
emocionales fuertes que conlleva para la familia. El desarrollo de los métodos de diagnóstico prenatal ha ido
parejo a la práctica del consejo genético, y por tanto se ha realizado de modo responsable y adecuado. En
cambio, el uso generalizado de nuevos métodos, especialmente la ecografía, fuera del contexto del consejo
genético (o incluso como sustituto del mismo) sin realizar adecuadamente el cálculo de riesgos, la detección
de portadores ni otras medidas de apoyo, supone un descenso en la calidad de la asistencia que reciben las
familias con enfermedades genéticas. El uso de pruebas de barrido (screening) en el primer trimestre del
embarazo significa que la mayor parte de las consultas de diagnóstico prenatal se realizan en situaciones
en las que no existía riesgo previo de una enfermedad genética, lo cual genera situaciones
especialmente delicadas que es importante gestionar bien.
Dado que los procesos de diagnóstico prenatal suponen una cierta tensión emocional para la familia,
especialmente para la madre, y pueden provocar una morbilidad fetal significativa, se recomienda que sólo
se realice diagnóstico prenatal cuando se cumplen una serie de condiciones y en aquellos casos en que está
indicado. En concreto, sólo se debe plantear el diagnóstico prenatal en el caso de enfermedades graves para
las que exista un método diagnóstico específico y fiable, y que sean susceptibles de tratamiento o
prevención. Las indicaciones principales, por tanto, son las cromosomopatías, los defectos del tubo neural, y
la edad materna avanzada. También se debe valorar la aceptación o no, por parte de la familia, del aborto
eugénico como opción, ya que algunos autores desaconsejan iniciar los estudios de diagnóstico prenatal
cuando dicha opción no se acepta (por motivos éticos, religiosos o de índole personal). En efecto, en estas
circunstancias no está claro que el diagnóstico conlleve ningún beneficio, y por el contrario pueden
generarse conflictos serios que son difíciles de resolver y a los que el facultativo no podrá dar respuesta. En
estas circunstancias, el diagnóstico prenatal sólo sería de utilidad si se pueden tomar medidas preventivas o
terapéuticas en el periodo fetal, lo cual sólo es posible en un número reducido de enfermedades. Por tanto,
antes de la puesta en marcha del proceso de diagnóstico prenatal es importante conocer las disposiciones
de la pareja respecto a las posibles opciones terapéuticas, además de considerar otros factores como la
severidad de la posible enfermedad, la posibilidad de tratamiento o medidas preventivas, y la fiabilidad
de las técnicas de diagnóstico prenatal. Este último punto es también de gran importancia, y debe ser
explicado con claridad y ejemplos prácticos, porque el concepto de "riesgo" no siempre es correctamente
entendido. Igualmente es importante que no se realice diagnóstico prenatal sin una estimación previa del
CAPÍTULO 18: GENÉTICA CLÍNICA
209
riesgo que tiene un feto concreto de padecer la enfermedad: el diagnóstico prenatal no está exento de
complicaciones y supone en sí mismo un riesgo para el feto, por lo que no está justificado realizarlo cuando
el riesgo previo de padecer esa enfermedad es muy bajo. Esto supone, lógicamente, que el diagnóstico
prenatal debe formar parte del proceso global de consejo genético y ser realizado, siempre que sea posible,
por especialistas en genética clínica.
Los dos métodos más utilizados para la obtención de material fetal son la amniocentesis y la toma de una
biopsia de vellosidades coriónicas. La amniocentesis consiste en la toma de una muestra de líquido
amniótico, que contiene células fetales en suspensión. Dichas células se pueden cultivar in vitro para
después realizar estudios cromosómicos, bioquímicos o moleculares, lo cual requiere entre 1 y 3 semanas.
El procedimiento es guiado por ultrasonidos y, en manos experimentadas, fiable. Sus principales
inconvenientes son el límite de edad fetal, ya que no puede realizarse antes de las 15 semanas de
gestación, y los riesgos de pérdida fetal que conlleva (en torno al 0,5-1%). La biopsia de de vellosidades
coriónicas puede realizarse durante el primer trimestre del embarazo, en torno a la décima semana, y es
especialmente útil para realizar estudios moleculares y en la presencia de un riesgo alto de
cromosomopatía. En cambio, es menos utilizada que la amniocentesis cuando el riesgo de alteraciones
citogenéticas es bajo. El procedimiento se realiza mediante punción a través de la pared abdominal
(transabdominal) o a través del cuello del útero (transcervical), bajo guía ecográfica. En ese momento, el
tejido coriónico todavía no forma una placenta propiamente dicha, por lo que la biopsia se examina bajo
microscopio y se aíslan las vellosidades (que únicamente contienen tejido fetal). El material obtenido puede
utilizarse directamente (sin necesidad de cultivo) para estudios moleculares o enzimáticos. En general, este
procedimiento se reserva para embarazos de alto riesgo, ya que la probabilidad de pérdida fetal es mayor
que en la amniocentesis (en torno al 2-3%).
Dado el riesgo relativamente alto de daño fetal que tienen la amniocentesis y, sobre todo, la obtención de
vellosidades coriónicas, desde hace años se están buscando métodos no invasivos que permitan realizar
estudios moleculares o bioquímicos en material fetal. Entre éstos, estan siendo muy utilizados los métodos
ecográficos, el análisis bioquímico de sangre materna, el análisis de células fetales presentes en la sangre
materna, o incluso la obtención de sangre fetal (aunque este procedimiento es más invasivo y por tanto
más peligroso que los otros mencionados). También en los últimos años, con la proliferación de las técnicas
de fertilización in vitro, es posible realizar diagnóstico genético preimplantatorio, obteniendo un
blastómero a partir de un embrión de pocas células y realizando estudios moleculares a partir del ADN de
esa única célula. Por desgracia, dicho procedimiento habitualmente no se realiza en el contexto del consejo
genético, y todavía no existen datos claros acerca del posible daño fetal que pueda producir. Tampoco hay
estudios abundantes sobre las tasas de error que se obtienen en el diagnóstico de las distintas
enfermedades genéticas, y en cualquier caso su aplicación está limitada por la baja tasa de éxito de la
fertilización in vitro.
210
GENÉTICA HUMANA
CAPÍTULO 19: TERAPIA GÉNICA
211
E. NUEVAS HERRAMIENTAS DE LA GENÉTICA MODERNA
Esta sección aborda los dos últimos temas del programa, que introducen al alumno en
las cuestiones de más actualidad y le abren perspectivas de futuro.
Capítulo 19. Terapia Génica.
Componentes de un sistema de terapia génica y vías de administración.
Naturaleza del ácido nucleico terapéutico. Tipos de vectores y su utilización
en
distintas
estrategias
de
transferencia
génica.
Aplicaciones
clínicas
actuales de la terapia génica.
Componentes de un sistema de terapia génica y vías de administración
El desarrollo de la genética molecular durante los últimos años, y especialmente toda la información
derivada del Proyecto Genoma Humano, han propiciado que podamos afrontar la modificación directa de las
alteraciones genéticas o la utilización de ácidos nucleicos como agentes terapéuticos. La terapia génica es
una nueva modalidad terapéutica surgida a finales de los años 80, y que puede definirse como la
transferencia de ácidos nucleicos (ADN ó ARN) con fines terapéuticos.
Toda estrategia de terapia génica se basa, por tanto, en la transferencia de ácidos nucleicos (transferencia
génica) al interior de un grupo de células. Estas células pueden ser las células enfermas –cuyo daño se
pretende reparar–, o bien un grupo de células normales que se modifican genéticamente para que sean las
efectoras de una acción terapéutica, por ejemplo sintetizando una proteína concreta. Por lo tanto, todo
sistema de terapia génica es análogo a un sistema de transporte, en el que hay un agente que es
transportado y un vehículo de transporte. En nuestro caso, el agente transportado es un ácido nucleico y el
vehículo encargado de llevarlo al interior de las células diana se denomina vector. Según el modo de hacer
In vivo
VECTOR
Ex vivo
212
GENÉTICA HUMANA
llegar el vector (conteniendo el agente terapéutico) a las células diana, es ya clásica la distinción entre
terapia génica ex vivo y terapia génica in vivo. En el primer caso, la administración del vector se realiza
fuera del cuerpo: se obtiene una biopsia del órgano de interés, se expanden las células mediante cultivo
celular y se ponen en contacto con el vector mientras están siendo cultivadas. Esto hace posible seleccionar
las células que hayan sido modificadas genéticamente y re-introducirlas en el paciente. En la administración
in vivo, el vector terapéutico se administra directamente al individuo enfermo por cualquiera de las vías
habituales (intramuscular, oral, intravenosa, intraportal, subcutánea), escogiendo aquella que nos permita
alcanzar la máxima eficacia terapéutica.
La Figura 19.1 ilustra los componentes de un sistema de terapia génica y las
vías de administración.
Naturaleza del ácido nucleico terapéutico
Según el efecto biológico que pretendemos obtener, el agente terapéutico será de distinta naturaleza. En
general, podemos clasificar los ácidos nucleicos terapéuticos en tres grupos, dependiendo de si buscamos la
corrección directa de una mutación, la suplementación génica, o la inhibición de la expresión.
a)
En los últimos años se ha conseguido corregir especificamente defectos a nivel del ADN mediante la
utilización de quimeraplastos, moléculas quiméricas (híbridas) formadas por ADN y ARN que son
capaces de reconocer específicamente una mutación y corregirla. Este tipo de tecnología funciona con
cierta eficacia cuando se aplica a células en cultivo (in vitro), y es de esperar que en los próximos años
se pueda utilizar también in vivo. Los quimeraplastos son oligonucleótidos formados por una molécula
lineal de ADN que contiene un tracto de 5 desoxi-ribonucleótidos complementarios a la secuencia
genómica que se quiere corregir. Es importante que esta región correctora esté flanqueada por
fragmentos de 10 ribonucleótidos (ARN). El oligonucleótido se empareja específicamente con la región
mutada y los sistemas de reparación celulares llevan a cabo la reparación de la mutación tomando
como molde la base correspondiente del oligonucleótido terapéutico. Teóricamente, es posible diseñar
oligonucleótidos ARN/ADN para corregir directamente las mutaciones puntuales que causan las
enfermedades hereditarias más frecuentes.
b)
En el caso de mutaciones que simplemente producen pérdida de función, puede ser suficiente la
suplementación génica, es decir, suplementar las células con copias normales del gen sin
preocuparnos de corregir las mutaciones presentes en el ADN genómico. Lo más habitual en estos
casos es que el agente terapéutico sea una unidad de expresión en la que la transcripción del gen en
cuestión viene regulada por promotores virales potentes, por promotores regulables o por promotores
específicos de un tipo celular concreto.
c)
Cuando el defecto genético que tratamos de corregir origina una ganancia de función, como suele
suceder en mutaciones con efectos oncogénicos, lo lógico es intentar inhibir la expresión del gen que
está causando el fenotipo aberrante. Los agentes terapéuticos más utilizados en estas circunstancias
son las moléculas antisentido o los ribozimas. Los oligonucleótidos antisentido pueden inhibir
directamente la expresión de un gen al unirse a la doble hélice de ADN mediante enlaces tipo
Hoogsteen, formado una triple hélice que impide la transcripción mediada por la ARN polimerasa II.
Estos oligonucleótidos suelen estar modificados químicamente para aumentar su estabilidad y eficacia,
siendo las principales modificaciones los grupos fósforo-tioato en el esqueleto desoxi-ribosa-fosfato de
CAPÍTULO 19: TERAPIA GÉNICA
213
los oligonucleótidos, o bien los ácidos nucleicos en los que el enlace fosfo-diéster viene substituido por
un enlace peptídico (denominados Acidos Nucleicos Peptídicos, PNA). Los ARNm antisentido son
capaces de emparejarse con los ARN sentido y formar moléculas bicatenarias de ARN que no pueden
ser traducidas y son digeridas por la RNAsa H celular. Los ribozimas, pequeñas moléculas de ARN con
actividad catalítica, pueden ser diseñados para reconocer un ARNm específico y degradarlo merced a su
actividad endonucleolítica específica. En general, la utilización de moléculas antisentido y ribozimas está
limitada por la baja eficacia que muestran todavía en modelos in vivo. Hoy en día, las mejores
perspectivas de inhibición eficaz y específica de la expresión génica se basan en la interferencia de
ARN, un mecanismo de silenciamiento génico post-transcripcional descrito en plantas y C. elegans que
consiste en la degradación de ARN mensajeros endógenos por la presencia de moléculas pequeñas de
ARN de doble cadena homólogas al mensajero que se destruye. Este proceso depende de una RNAasa
tipo III llamada DICER, responsable de la formación de los ARN pequeños, y de un complejo llamado
RISC (RNA Induced Silencing Complex) que contiene unas proteínas del complejo ARGONAUTA y los
ARN pequeños que dirigen el complejo a la diana. Se ha visto que este mecanismo también juega un
papel importante en la regulación génica en humanos, ya que el análisis del genoma ha revelado la
presencia de genes que codifican ARN pequeños (aproximadamente 75 nucleótidos) que forman
horquillas y que son procesados por DICER y proteínas del complejo Argonauta para generar ARN
intereferentes pequeños, de unos 21-22 nucleótidos. Estos genes endógenos se denominan miRNA
(microRNA), para diferenciarlos de los siRNA que provienen de moléculas bicatenarias de ARN de
procedencia externa. Actualmente se piensa que ambos tipos de moléculas (miRNA y siRNA) tienen la
misma vía efectora, que actúa impidiendo la traducción (si la homología de la molécula interferente
con el ARN mensajero no es total), o bien eliminando los mensajeros si la homología es total.
Sorprendentemente, también se ha visto que las repeticiones centroméricas y los transposones, cuando
se transcriben, dan lugar a ARN interferentes pequeños que utilizan este mecanismo para modificar la
cromatina, induciendo metilación en las histonas ó en el ADN y provocando la formación de
heterocromatina o el silenciamiento transcripcional. En los últimos años se ha demostrado que se
pueden utilizar siRNAs ó microRNAs para inhibir la expresión de genes endógenos, generando moléculas
interferentes específicas para un gen concreto. Por ejemplo, se ha conseguido silenciar genes
endógenos en células humanas mediante siRNAs dirigidos específicamente frente a promotores
concretos. Dicho silenciamiento se lleva a cabo por metilación de los dinucleótidos CpG de esos
promotores y por metilación de la lisina 9 de la histona H3 de esa región. El avance más espectacular
usando esta tecnología tuvo lugar en 2004, cuando un grupo consiguió reducir hasta un 40% los niveles
de colesterol en ratón, usando unos siRNA sintéticos conjugados con colesterol que fueron injectados
directamente en la vena de la cola. Los siRNA fueron captados eficazmente por receptores del hígado,
yeyuno y otros órganos y provocaron la degradación de los ARNm endógenos de apolipoproteína B, con
el consiguiente descenso en los niveles de LDL y colesterol total.
En la Figura 19.2 se muestran algunos ejemplos de moléculas utilizadas en
distintas estrategias de terapia génica.
Tipos de vectores y su utilización en distintas estrategias de transferencia
génica
Los ácidos nucleicos terapéuticos han de ser vehiculizados al interior de las células diana por medio de
vectores adecuados. Se distinguen dos tipos fundamentales de vectores: los basados en virus (vectores
214
GENÉTICA HUMANA
virales) y los vectores sintéticos (vectores no virales) que intentan emular la capacidad natural que tienen
los virus de introducir ácidos nucleicos en las células.
1. Los vectores virales fueron los primeros en ser utilizados, dada su alta eficacia como vehículos de
ácidos nucleicos. Los virus están compuestos por un ADN ó un ARN rodeado de una cápside proteica y, en
algunos casos, una envuelta lipoproteica. El ciclo biológico de los virus pasa por la introducción del genoma
viral en determinados tipos celulares, habitualmente por la presencia de receptores en la membrana de las
células. Para poder utilizar un virus como vector en terapia génica, es preciso insertar el ácido nucleico
terapéutico en el genoma viral, y conseguir al mismo tiempo que el virus no se replique y por tanto no sea
patogénico. Por esto, los virus utilizados en terapia génica se denominan virus recombinantes y
defectivos (carecen de alguna función necesaria para su propio ciclo replicativo). A continuación se
repasan los principales vectores virales utilizados actualmente en terapia génica.
a) Vectores retrovirales. La familia Retroviridae está compuesta por las subfamilias Spumaviridae,
Lentiviridae y Oncoviridae. Los vectores retrovirales utilizados en terapia génica están derivados de los
oncovirus murinos del tipo C, especialmente los que son anfitrópicos (que pueden infectar tanto células
murinas
como
humanas).
Recientemente
se
han
desarrollado
vectores
derivados
de
lentivirus,
especialmente del HIV-1.
Los retrovirus son virus ARN que tienen una envuelta fosfolipídica, con glicoproteínas que determinan el
tropismo del virus al ser reconocidas por receptores celulares específicos. Dentro de esta envuelta hay una
cápside proteica de estructura icosaédrica que contiene 2 copias del genoma viral, la transcriptasa inversa
(RT), y la integrasa. El genoma de un retrovirus es una molécula de ARN de polaridad positiva en la que se
distinguen 3 tipos de genes: genes gag (que codifican las proteínas de la cápside), genes pol (que
codifican las enzimas necesarias para el ciclo viral, como la proteasa y la integrasa) y genes env (que
codifican las glicoproteínas de la envuelta). El genoma está flanqueado por dos repeticiones terminales
largas (LTR, Long Terminal Repeat), y contiene también una señal de empaquetamiento PSI mediante la
cual las moléculas de ARN se unen a las proteínas de la cápside y son empaquetadas eficazmente. El LTR
izquierdo contiene una región (U3) para el comienzo de la transcripción, y un primer binding site (pbs) para
el comienzo de la retrotranscripción. El LTR derecho contiene una secuencia de poli-purinas (ppt) para la
replicación de la segunda cadena.
El ciclo replicativo de los retrovirus comienza cuando el virus es reconocido por receptores celulares, lo
que lleva a la fusión de la envuelta viral con la membrana celular y a la internalización del nucleoide. A
continuación tiene lugar la retrotranscripción del ARNm para formar un ADNc bicatenario (este proceso
tiene lugar dentro de la nucleocápside, antes de su llegada al núcleo de la célula), y después se
desensambla la cápside al llegar a la membrana nuclear. El genoma viral se integra en el genoma de la
célula huésped (integración mediada por la propia integrasa del virus), y entonces comienza la transcripción
a partir del promotor U3 que está en el LTR izquierdo. Se producen distintos tipos de ARNm,
fundamentalmente un transcrito que contiene gag y pol y otros transcritos que codificarán las proteínas de
la envuelta. Los ARNm son exportados al citoplasma y traducidos, dando lugar a poliproteínas gag-pol y a
las proteínas de la envuelta. Estas últimas viajan a la membrana celular, mientras que las poliproteínas gagpol forman nuevas nucleocápsides al unirse a la señal de empaquetamiento de los ARNm positivos. Tras el
empaquetamiento, que tiene lugar en el citoplasma, las cápsides salen de la célula por gemación, quedando
rodeadas de nuevo por una envuelta compuesta por la membrana celular y las glicoproteínas codificadas por
el virus que habían llegado anteriormente a la membrana. Las nuevas partículas retrovirales se activan
cuando la proteasa rompe la poliproteína gag-pol dentro de la propia partícula viral y da lugar a moléculas
independientes de proteasa, integrasa y retrotranscriptasa.
CAPÍTULO 19: TERAPIA GÉNICA
215
La Figura 19.3 muestra la estructura del genoma de un retrovirus.
LTR
PSI
gag
U3 pbs
pol
env
LTR
ppt
Es importante señalar que el nucleoide de un oncovirus es incapaz de atravesar la membrana nuclear, por lo
que es necesario que la célula sufra al menos una mitosis para que el genoma viral entre en contacto con el
genoma de la célula huésped. En cambio, los retrovirus de la familia de los lentivirus sí que pueden
atravesar la membrana nuclear, por lo que pueden infectar células que no están en división. Esta es una
propiedad muy importante a la hora de valorar las posibles aplicaciones de estos tipos de vectores.
Para generar un retrovirus recombinante defectivo, es necesario sustituir los genes de las proteínas
virales por el gen terapéutico que se quiere utilizar. Lógicamente, para producir estos virus defectivos
debemos usar una línea célular (célula empaquetadora) que aporte los genes virales en trans. Estas células
empaquetadoras tienen los genes virales insertados en el genoma celular, de modo que expresan
establemente las proteínas virales. Sin embargo, las copias de los genes virales que están integradas en el
genoma celular carecen de la señal de empaquetamiento, por lo que sus transcritos no pueden
empaquetarse en las nuevas partículas virales. De este modo, una célula empaquetadora en condiciones
normales no produce viriones completos, sino sólo partículas vacías. En cambio, cuando transfectamos
estas células con un plásmido recombinante que contenga el ADN terapéutico flanqueado por los LTR y por
la señal de empaquetamiento (además de otros elementos necesarios en cis como el primer binding site, y
el tracto polipurínico necesario para la síntesis de la segunda cadena) se generarán partículas retrovirales
recombinantes y defectivas, que pueden ser purificadas y concentradas a partir de los sobrenadantes del
cultivo celular. En este proceso es muy importante evitar la aparición de retrovirus con capacidad
replicativa, que podrían generarse por recombinación homóloga entre las secuencias virales que están
presentes en nuestro plásmido con las secuencias virales presentes en el genoma de la célula
empaquetadora. Por este motivo, se utilizan células empaquetadoras que tienen los genes virales separados
entre sí, de modo que serían necesarias varias recombinaciones independientes para generar un virus
replicativo, algo altamente improbable.
El video de la Figura 19.4 explica el ciclo replicativo de los retrovirus y el
proceso de generación de retrovirus defectivos recombinantes.
Los retrovirus recombinantes defectivos han sido muy utilizados en terapia génica. Por las limitaciones
propias del tamaño del genoma viral, el ADN terapéutico no puede ser mayor a 7-8 kb. Son vectores con
buena infectividad, un tropismo amplio, pero son bastante lábiles (lo que dificulta su purificación) y sólo
transducen eficazmente células que están en división. Además, son inactivados en el torrente sanguíneo por
el sistema del complemento, por lo que su principal uso ha estado reservado a estrategias de terapia génica
ex vivo. Su capacidad integrativa les permite alcanzar, en teoría, una duración muy larga de la expresión
incluso en células que estén dividiéndose activamente. Sin embargo, los promotores virales suelen
silenciarse por metilación, por lo que la expresión no es tan prolongada como cabría esperar. Se está
investigando la posibilidad de modificar el tropismo de estos vectores, mediante la creación de proteínas de
216
GENÉTICA HUMANA
la envuelta quiméricas que incluyan algún scFv (anticuerpo monocatenario) u otros ligandos de receptores
celulares conocidos.
Como se ha mencionado, recientemente se han desarrollado vectores retrovirales basados en lentivirus,
aprovechando la circunstancia de que el HIV-1 es uno de los virus mejor estudiados. El genoma de este
virus contiene algunos genes (tat y rev, por ejemplo) que no están presentes en los oncoretrovirus y que
son esenciales para la expresión de los genes virales. Algunas de las proteínas virales tienen señales de
localización nuclear y facilitan la entrada del virus por los poros nucleares, de ahí la capacidad que tienen
estos virus de infectar células que no están en división. Aunque los problemas de seguridad de los
lentivirus están prácticamente superados, todavía hay que mejorar los sistemas de producción para poder
utilizarlos en pacientes con total seguridad. Su principal aplicación está en la transferencia de genes a
células del sistema nervioso in vivo, y a progenitores hematopoyéticos ex vivo, siendo esta última una
propiedad especialmente interesante por su inmenso potencial terapéutico, y porque estas células son
prácticamente intransfectables por otros medios.
b) Vectores adenovirales: Se conocen gran cantidad de serotipos de adenovirus humanos, pero los más
utilizados en terapia génica han sido los serotipos 2 y 5. Los adenovirus son virus ADN sin envuelta,
responsables de las principales enfermedades de vías respiratorias altas (el ―catarro‖ común), con muy buen
tropismo por células humanas. La nucleocápside de un adenovirus consta de una cápside icosaédrica que
está compuesta por 720 proteínas hexona y 60 proteínas pentona. De las pentonas parte la proteína de la
fibra (una proteína trimérica) que termina en una proteína ―botón‖ (knob) mediante la cual el adenovirus
se une a receptores celulares específicos.
El genoma adenoviral es un ADN de doble cadena de aproximadamente 35 kb de tamaño, flanqueado por
repeticiones terminales invertidas (ITR) de 100-140 nucleótidos y una señal de empaquetamiento (psi)
cerca del ITR izquierdo. Contiene gran cantidad de genes, que se agrupan en regiones tempranas (early) y
tardías (late), según el momento en que se transcriben después de la infección. Así, las regiones tardías
se transcriben tras la replicación del genoma viral, y contienen los genes que codifican las proteínas
estructurales del virus. En cambio, las regiones tempranas se transcriben antes de la síntesis del ADN
viral, y cumplen varias funciones:

las proteínas codificadas en E1 incluyen, por ejemplo, E1A (proteína necesaria para transactivar la
transcripción de los demás genes virales) y E1B 55kd (que se une a E4). Además, estas proteínas
interfieren con las funciones de la célula huésped: E1A es una oncoproteína, E1B 19kd inhibe la
apoptosis mediada por p53 y E1B 55kd promueve la degradación de p53.

la región E2 codifica proteínas necesarias para la replicación viral: ADN polimerasa, proteína terminal,
etc.

la región E3 codifica algunas proteínas que ayudan al adenovirus a escapar al sistema immune, como la
proteína gp19kd que inhibe la presentación de fragmentos antigénicos con moléculas de clase II del
Complejo Mayor de Histocompatibilidad.

la region E4 codifica diversas proteínas que silencian genes endógenos, regulando el transporte de ARN
mensajeros fuera del núcleo.
El ciclo replicativo de un adenovirus es más sencillo que el de los retrovirus. El adenovirus se une a un
receptor de membrana específico denominado CAR (CoxackieAdenovirusReceptor) mediante el botón de la
fibra, y a continuación la pentona se une por un motivo RGD (arginina-glicina-aspártico) a integrinas
cercanas para después ser internalizado por endocitosis. La propia cápside adenoviral es capaz de
desestabilizar el endosoma, que se rompe y libera las partículas virales al citoplasma. Las nucleocápsides
CAPÍTULO 19: TERAPIA GÉNICA
217
llegan a la membrana nuclear y son capaces de introducir el genoma viral a través de los poros
nucleares.
Para generar adenovirus recombinantes defectivos (es decir, que lleven el ADN terapéutico pero no
puedan replicarse) se sigue una estrategia similar a la que veíamos para los retrovirus: substituir algún gen
viral por el gen terapéutico. Lo más habitual es delecionar el genoma viral en la región E1, para lo que
necesitaremos una célula empaquetadora que exprese de manera estable los genes contenidos en esa
región. La línea celular más utilizada como célula empaquetadora para construir adenovirus recombinantes
se denomina célula 293. Para conseguir el adenovirus recombinante, se cotransfectan células 293 con
dos plásmidos distintos: un plásmido en el que el gen terapéutico está flanqueado por parte del gen E1, la
señal de empaquetamiento y los ITR virales, y otro plásmido que contiene todo el genoma viral excepto la
señal de empaquetamiento y la región de E1 que está presente en trans en el genoma de las células 293.
Una vez dentro de la célula, los mecanismos de recombinación son capaces de generar un genoma viral
recombinante que llevará el gen terapéutico dentro del genoma viral (al que le falta E1). Como el gen
terapéutico va unido a la señal de empaquetamiento PSI, únicamente estos transcritos se empaquetarán
correctamente en las nuevas cápsides virales, mientras que los genomas virales producidos endógenamente
carecen de la señal PSI y por tanto no producen viriones infectivos. Los adenovirus delecionados en E1
permiten insertar genes terapéuticos con un tamaño máximo de 5 kb, por lo que posteriormente se han
generado vectores que llevan además deleciones en E3 y E4, para conseguir llegar a una capacidad de 7-8
kb. La última generación de vectores adenovirales consiste en los llamados adenovirus gutless (vacíos), en
los que todo el genoma viral ha sido delecionado y por tanto tienen una capacidad teórica en torno a las 30
kb de ADN exógeno. Para producirlos hay que aportar en trans todas las funciones adenovirales necesarias,
mediante plásmidos helper ó por estrategias que utilizan el sistema Cre/loxP.
La figura Figura 19.5 muestra la estructura del genoma de un adenovirus y de
una partícula adenoviral, así como el proceso general de producción de
adenovirus recombinantes defectivos.
Los adenovirus comenzaron a usarse en terapia génica más tarde que los retrovirus, pero rápidamente
ganaron en popularidad y hoy en día son los vectores más utilizados para aplicaciones in vivo. Infectan gran
variedad de células, son relativamente estables y fáciles de purificar y concentrar, y son eficaces tanto
sobre células quiescentes como sobre células en división. Como el genoma del vector no se integra en el
genoma de la célula huésped, la duración de la expresión en células en división es limitada. Su principal
inconveniente es la toxicidad que producen a dosis altas, y la fuerte respuesta inmune celular y humoral que
sigue a su administración, con la consiguiente disminución de eficacia terapéutica. Los nuevos vectores
adenovirales ―vacíos‖ superan algunos de estos invonvenientes.
c) Vectores Virales Adenoasociados: Se trata de Parvovirus que infectan al hombre pero no son
patógenos. Pertenecen al grupo de los Dependovirus, virus ADN sin envuelta que necesitan de funciones
helper para completar su ciclo replicativo completo. Estas funciones helper las aporta un adenovirus o un
herpesvirus que sobreinfecta las mismas células que previamente habían sido infectadas por un
dependovirus. El genoma de un virus adenoasociado es un ADN monocatenario con un tamaño de 4,8 kb
y una estructura muy simple, con dos regiones codificantes: cap, que codifica las tres proteínas de la
cápside, y rep, que codifica 4 proteínas necesarias para la replicación viral. El genoma está flanqueado por
dos repeticiones terminales invertidas (ITR), que forman unas estructuras en horquilla y que son los únicos
elementos necesarios en cis para poder llevar a cabo el ciclo vital del virus.
218
GENÉTICA HUMANA
La infección por un virus adenoasociado comienza por la unión del virus a receptores celulares y su
entrada en la célula. El genoma viral es capaz de entrar en el núcleo incluso en células que no se dividen, y
una vez allí se convierte a doble hebra y se integra en un locus específico localizado en el brazo largo
del cromosoma 19 humano (banda 19q13). Todas estas funciones están mediadas por proteínas de la célula
huésped, pero además se ha comprobado que las proteínas virales Rep78/68 son necesarias para la
integración específica del genoma viral en una secuencia llamada AAVS1 que está en 19q13. En ausencia de
funciones helper, el genoma viral integrado permanecerá como un provirus, en forma latente. Ante una
sobreinfección por adenovirus ó herpesvirus, el adenoasociado comienza su fase lítica con la transcripción
de los genes virales, la replicación del genoma viral y el empaquetamiento en las cápsides para dar lugar a
nuevos viriones. Para obtener virus adenoasociados recombinantes como vectores en terapia génica, se
construye un plásmido recombinante que contiene el gen terapéutico flanqueado por los ITR virales. En el
método clásico de producción de estos vectores, se cotransfectan células 293 con el plásmido recombinante
y con otro plásmido que aporta en trans las funciones cap y rep, y después se infectan esas mismas células
con un adenovirus. El problema de este procedimiento es que los preparados virales tienen una fuerte
contaminación por adenovirus, por lo que es necesario inactivar este adenovirus contaminante mediante
tratamiento con calor. Los métodos actuales de producción evitan este problema al aportar las funciones
helper del adenovirus en un tercer plásmido que se cotransfecta con los otros dos, de forma que la
generación de adenovirus maduros es prácticamente imposible.
Los
vectores
adenoasociados
están
ganando
popularidad
rápidamente
por
sus
extraordinarias
características: buena infectividad, integración en el genoma de la célula huésped, muy baja toxicidad y
ausencia de respuesta inmune celular frente a las proteínas virales. Por desgracia, la especificidad de la
integración en un locus concreto se pierde en los virus adenoasociados recombinantes, ya que no se
produce Rep68/78 (que es absolutamente necesaria para que tenga lugar esta integración específica). En
consecuencia, la integración se realiza al azar, como en el caso de los retrovirus. Los virus adenoasociados
pueden transducir células quiescentes o células en división, y están especialmente indicados en aplicaciones
in vivo en las que se requiere una expresión prolongada del gen terapéutico.
d) Otros vectores virales que actualmente están ganado en popularidad son los Herpesvirus, basados en el
virus del herpes simplex (HSV), que tienen un marcado tropismo neuronal y por eso se emplean
fundamentalmente para la transferencia de genes al sistema nervioso. Los HSV son virus envueltos con un
genoma lineal de 152 kb de ADN bicatenario, en el que se han identificado más de 80 genes. El genoma
está dividido en dos regiones únicas (Larga y Corta) que están flanqueadas por repeticiones terminales (TR)
y repeticiones internas (IR). El virus se une a glicosamino-glucanos celulares y a receptores celulares
específicos (por ejemplo, el receptor HveC, que pertenece a la superfamilia de las inmunoglobulinas y se
expresa a alto nivel en el sistema nervioso). Tras la entrada en la célula, el virus avanza por transporte
retrógrado y llega al núcleo, penetrando por los poros nucleares. Después de entrar en el núcleo se
expresan los genes inmediatos tempranos, que activan la expresión de los genes tempranos (necesarios
para la síntesis de ADN viral) y de los genes tardíos (proteínas estructurales). Una característica importante
es que uno de los genes inmediatos tempranos (ICP4) es absolutamente necesario para la replicación viral,
por lo que basta eliminarlo del genoma para obtener virus defectivos. En los vectores actualmente en uso se
han delecionado todos los genes inmediatos tempranos, por lo que son totalmente apatogénicos.
Otra característica importante de estos virus es que cuando no se replican entran en un periodo de latencia
en el que se transcriben únicamente unos transcritos asociados a latencia (LATs), aunque no se expresen
los genes inmediatos tempranos. Por tanto, incluyendo la unidad transcripcional en la región de latencia se
pueden obtener virus defectivos que expresan de forma persistente un gen terapéutico. Además, se trata de
vectores de gran capacidad porque permiten acomodar hasta 50 kb de ADN exógeno.
CAPÍTULO 19: TERAPIA GÉNICA
En
la
Figura
19.6
se
219
muestra
la
estructura
del
genoma
de
virus
adenoasociados (AAV) y herpes (HSV), así como el ciclo replicativo del AAV.
2. Los Vectores no-virales representan un intento de imitar las funciones de los virus como vehículos de
transferencia génica mediante sistemas sintéticos, de forma que en principio son vectores mucho más
seguros desde el punto de vista de su peligrosidad biológica y su patogenicidad. En este sentido, los
vectores no-virales no se diferencian conceptualmente de los fármacos a los que estamos habituados. La
principal limitación de este tipo de vectores es que, en la actualidad, su eficacia in vivo es mucho menor que
la de los vectores virales. Esto se debe a la inestabilidad propia de sistemas sintéticos complejos y a las
diferentes barreras que han de superar:

Los complejos entre el ácido nucleico y los demás componentes de estos sistemas han de ser estables
tras su administración, y no desintegrarse antes de alcanzar las células. Por otra parte, la
biodistribución de estos preparados hace que la concentración efectiva en las células diana sea baja,
por lo que es importante que lleven en su superficie algún tipo de ligando para receptores específicos
de las células a las que lo queremos enviar.

Habitualmente, estos complejos entran en las células por endocitosis, de manera que quedan expuestos
al ataque de las enzimas lisosomales. Para evitar esto, se intenta incluir en estos vectores algún tipo de
molécula que altere el pH del endosoma y consiga romperlo antes de su fusión con los lisosomas y
liberar así el complejo intacto al citoplasma. Estas moléculas suelen ser péptidos o proteínas virales que
cumplen esta misma función en algunos tipos de virus. Una vez en el citoplasma, estos complejos han
de ser lo suficientemente estables como para llegar hasta el núcleo, pues si el ácido nucleico se libera
muy pronto será degradado por nucleasas citoplasmáticas. Pero si son demasiado estables, el ácido
nucleico no conseguirá liberarse y por tanto no podrá entrar en el núcleo de la célula. Este compromiso
entre protección y liberación es quizás uno de los retos más importantes que tienen que superar los
vectores no virales para aumentar su eficacia actual.

En cierta medida, la inclusión en estos complejos de alguna molécula capaz de dirigirlos al núcleo
celular serviría para acelerar su tránsito citoplasmático. Por tanto, otro componente habitual en los
vectores no virales son las moléculas con señales de localización nuclear que además permitan la
entrada del ácido nucleico a través del complejo del poro nuclear, pues de lo contrario sólo serán
capaces de ser efectivos en células que estén en mitosis.
Como se ve, la tarea de construir un vector no-viral ―ideal‖ equivale a intentar reconstruir en el laboratorio
lo que los virus consiguen de manera natural, lo cual no es en absoluto sencillo. En cualquier caso, son uno
de los campos de investigación más activa, sobre todo por parte de empresas farmacéuticas y de
biotecnología, y es previsible que los próximos años vean avances significativos en este terreno.
Actualmente, los vectores no-virales más utilizados son los siguientes:
a) Inyección Directa: Lógicamente, lo más sencillo es injectar directamente el ácido nucleico (ADN
desnudo) en el órgano de interés. Aunque poco eficaz, este procedimiento funciona razonablemente en
ciertas aplicaciones y en algunos órganos. Por ejemplo, el músculo esquelético es uno de los órganos que
más eficazmente incorporan un plásmido inyectado, alcanzando niveles de expresión suficientes para
conseguir inmunización frente a proteínas virales, tumorales, etc. En ocasiones se utiliza la inyección de
ADN formulado con diversos polímeros (sobre todo poli-vinil-pirrolidona) que lo protegen de la acción de
220
GENÉTICA HUMANA
las nucleasas y prolongan su vida media tras la administración. También se utiliza el ADN encapsulado en
microesferas de polímeros biodegradables (por ejemplo, copolímeros de ácido láctico y glicólico), que
pueden inyectarse en un órgano y proporcionar liberación sostenida del ácido nucleico terapéutico durante
un periodo de tiempo más o menos prolongado, dependiendo del tipo de polímero utilizado. Otra variedad
es la transferencia génica balística (pistola génica o ―gene gun‖), en la que el ácido nucleico terapéutico
se adsorbe sobre la superficie de una bolas microscópicas de oro u otro metal inerte, que son disparadas a
presión sobre el órgano diana. Es una vía de administración utilizada en la piel (para inmunización génica) o
a veces sobre otros órganos, pero las bolas no tienen un gran poder de penetración (raramente superior a
unos pocos milímetros).
b) Complejos formados por el ácido nucleico terapéutico y otros componentes: son los sistemas más
complicados de elaborar y optimizar, pero los más eficaces dentro de los vectores no-virales. El principio
que subyace a todos los sistemas de este tipo es la complejación del ADN (molécula grande con alto número
de cargas negativas) con polímeros de naturaleza catiónica (con cargas positivas), de manera que la
neutralización de cargas da lugar a complejos más o menos estables, de pequeño tamaño, en los que el
ADN está protegido de la acción de nucleasas. Suele distinguirse entre lipoplexos (cuando el ADN se
compleja con lípidos catiónicos) y poliplexos (ADN complejado por policationes, habitualmente poli-lisina o
poli-etilén-imina). Sobre la estructura básica de un lipoplexo o un poliplexo pueden añadirse otro tipo de
moléculas
que
actúen
como
estabilizadores,
ligandos
para
receptores
específicos,
moléculas
desestabilizadoras del endosoma, señales de localización nuclear. Por ejemplo, se ha utilizado poli-etilénglicol para aumentar la estabilidad de lipoplexos en el torrente sanguíneo y evitar la inactivación por el
suero. Asímismo, ha sido muy utilizada la unión de poli-lisina a transferrina o a orosomucoide, para
conseguir unión específica a receptores hepáticos. Otra estrategia utilizada con bastante éxito ha sido la
formación de lipoplexos que además incluyen partículas del virus hemaglutinante del Japón (virus
Sendai) inactivados, lo que proporciona una entrada en las células muy eficaz (por la fusogenicidad del virus
Sendai) y buen escape endosomal.
En la Figura 19.7 se muestran algunos ejemplos de vectores no virales.
La siguiente Tabla resume las principales características de los vectores que se han mencionado:
Retrovirus
Adenovirus
AAV
No virales
Tamaño máximo teórico
7-8 kb
7-8 kb (30 kb)
5 kb
No límite
Títulos alcanzados durante la
preparación (partículas/ml)
108/ml
1012/ml
1011/ml
No límite
Administración preferente
Ex vivo
Ex/in vivo
Ex/in vivo
Ex/in vivo
Integración en el genoma
Si
No
Si/No
Mínima
Duración expresión in vivo
Corta
Corta
Larga
Corta
Inmunogenicidad
Poca
Mucha
Poca
Nada
Inmunidad previa
Improbable
Si
Si
No
Problemas de seguridad
Mutagénesis
Inflamación
Toxicidad
Mutagénesis
Ninguno
Como resumen de todo lo dicho acerca de vectores, podemos concluir diciendo que el vector ―ideal‖ de
terapia génica debería ser fácil de preparar, tener gran capacidad para aceptar genes terapéuticos de gran
CAPÍTULO 19: TERAPIA GÉNICA
221
tamaño, funcionar tanto en células en división como en células quiescentes, ser totalmente inocuo e
―invisible‖ para el sistema inmune, fácilmente dirigible a distintos tipos de células diana, ser capaz de
persistir en las células durante periodos prolongados y poseer elementos reguladores de la transcripción
del gen terapéutico que sean fácilmente regulables para poder variar los niveles del producto terapéutico
según sea necesario. Hay numerosos ejemplos de cómo se han conseguido mejorar los distintos tipos de
vectores para dotarlos con alguna de estas propiedades. Por ejemplo, los retrovirus se han podido
pseudotipar con las proteínas de la envuelta del virus de la estomatitis vesicular para modificar su tropismo.
Igualmente, se ha modificado la proteína ―botón‖ de la fibra de los adenovirus mediante anticuerpos biespecíficos o por modificación genética. Los vectores no virales se han glicosilado para ser selectivamente
reconocidos por receptores específicos presentes en distintos tipos celulares. También se han construido
sistemas de transcripción regulables muy efectivos, que se pueden incorporar en los distintos tipos de
vectores.
Aplicaciones clínicas de la terapia génica en el momento actual
Desde el caso de la niña Ashanti Da Silva, primer paciente de la historia tratado mediante terapia génica en
1989 por sufrir Inmunodeficiencia Combinada Severa (déficit del enzima adenosín-desaminasa), el número
de ensayos clínicos llevados a cabo en todo el mundo ha aumentado rápidamente, de manera que en la
actualidad hay varios miles de enfermos incluídos en protocolos clínicos de terapia génica. Como las
estrategias utilizadas son variadísimas, a continuación se resumen las más utilizadas hasta el momento:
Terapia génica del cáncer: la estrategia más utilizada es, sin duda, la utilización de los llamados genes
suicidas. Se trata de transferir a las células tumorales un gen que codifique una proteína capaz de activar
un pro-fármaco inactivo a su forma activa. Es muy popular la utilización del gen de la timidín-kinasa del
virus del Herpes Simplex (HSV-tk), que codifica una timidín-kinasa capaz de fosforilar el ganciclovir a
ganciclovir-trifosfato. El ganciclovir tri-fosfato es la forma activa capaz de interferir con la replicación del
ADN y provocar la muerte de las células que están dividiéndose activamente. Por tanto, si somos capaces
de transferir el gen de la HSV-tk a las células de un tumor, que tienen una alta tasa replicativa, la
administración sistémica de ganciclovir conseguirá matar selectivamente las células tumorales. Una ventaja
añadida es el llamado efecto espectador (bystander), mediante el cual la timidín-kinasa producida en unas
células puede pasar a las células vecinas, de forma que aunque no todas las células tumorales hayan
incorporado el gen terapéutico, el efecto citotóxico es bastante homogéneo en todo el tumor. Esta
estrategia se ha empleado en tumores cerebrales, usando vectores retrovirales para transducir sólo células
tumorales (en división) pero no neuronas (que no se dividen). También se ha empleado con éxito en
tumores hepáticos, usando en este caso vectores adenovirales.
Otra estrategia utilizada en terapia génica del cáncer se basa en la suplementación de las células malignas
con genes supresores tumorales (p53, por ejemplo). Se ha utilizado también la transferencia al tumor de
genes que inhiben la angiogénesis (endostatina, angiostatina, etc) para eliminar el tumor por falta de
aporte vascular. Por último, una de las estrategias que han tenido más éxito y que ofrecen mejores
perspectivas de futuro es la inmunopotenciación, es decir, favorecer la puesta en marcha de una
respuesta inmune frente a las células tumorales. En este sentido, se han transferido los genes de gran
variedad de citoquinas o moléculas inmunopotenciadoras (IL-2, IL-12, GM-CSF, IFN-, TNF, etc.) tanto a
células tumorales como a células presentadoras de antígeno (células dendríticas), o bien se han transferido
a las células tumorales los genes de moléculas co-estimuladoreas del complejo mayor de histocompatibildad
(por ejemplo, B7.1) para favorecer la presentación de los antígenos tumorales.
222
GENÉTICA HUMANA
El video de la Figura 19.8 muestra algunos ejemplos de utilización de terapia
génica frente al cáncer.
Terapia génica de enfermedades hereditarias: la mayoría de las enfermedades metabólicas debidas a
mutaciones inactivantes en genes que codifican proteínas con actividad biológica (un enzima, un factor de
coagulación, una hormona, etc) pueden abordarse mediante una estrategia de suplementación génica que
restaure los niveles de la proteína deficiente. Por ejemplo, se ha utilizado la transferencia génica al músculo
para conseguir la producción local de distrofina en casos de distrofia muscular de Duchenne. De manera
similar, se han transferido genes al músculo o al hígado para que estos órganos secreten al torrente
circulatorio un factor que está ausente. En este sentido, ha tenido especial resonancia el éxito alcanzado con
la transferencia mediada por virus adenoasociados del gen del factor IX de la coagulación al músculo
esquelético, para producir niveles plasmáticos de este factor que puedan corregir los defectos en la
coagulación que sufren animales hemofílicos.
Inmunización frente a enfermedades infecciosas mediante transferencia génica, con el fin de que las
células sinteticen péptidos inmunogénicos y estimulen al sistema inmune hasta eliminar el agente patógeno.
Se están ensayando inmunizaciones génicas frente a virus (virus B y virus C de la hepatitis, virus de la
gripe) u otros agentes, como el parásito de la malaria. Es bastante eficaz la injección directa de un plásmido
en músculo o la transferencia intradérmica mediante pistola génica. En general, la eficacia de estos
tratamientos reside en la capacidad de producir localmente una proteína que sea liberada y capturada por
macrófagos y otras células presentadoras de antígenos, que procesan esas proteínas a pequeños péptidos y
los presentan con moléculas de clase II del sistema mayor de histocompatibilidad (MHC) para estimular las
células CD4+ (linfocitos T helper). Además, si las células transfectadas expresan moléculas de clase I del
MHC también podrán presentar los péptidos recién sintetizados y estimular células CD8+ (linfocitos T
citotóxicos).
Una de las asignaturas pendiente de la terapia génica es la demostración de su utilidad clínica en humanos.
En enero de 2005, el número de ensayos clínicos que incluían transferencia de genes ascendía a 1.020 en
todo el mundo. El 80% de estos estudios son ensayos clínicos en fase I (estudio de toxicidad) ó fase I/II, el
resto son ensayos en fase II (estudio de eficacia terapéutica) o en fase III. Estos datos se resumen a
continuación:
Ensayos clínicos en Enero de 2006: 1.145 en total
Distribuídos por el tipo de enfermedad:
Cáncer: 67%
Monogénicas: 9%
Marcaje: 4%
Infecciosas: 7%
Vasculares: 9%
Distribuídos por el tipo de vector utilizado:
Retrovirus: 24%
Lipofección: 8%
Adenovirus: 25%
DNA desnudo: 17%
HSV: 3%
Virus adenoasociados: 3%
Distribuídos por el tipo de gen terapéutico:
Citoquinas: 26%
Antígenos: 15%
Genes suicidas: 7%
Proteínas deficientes: 6%
Genes supresores tumorales: 12%
Genes antisentido y ribozimas: 1%
Receptores: 4%
CAPÍTULO 20: BIOINFORMÁTICA DEL GENOMA HUMANO
223
Capítulo 20. Bioinformática del Genoma Humano.
La Bioinformática. Bases de datos de utilidad en Genética Humana: bases de
datos de secuencias y bases de datos relacionadas con enfermedades.
Búsquedas en bases de datos con BLAST. Navegadores del Genoma Humano.
La Bioinformática
Tradicionalmente, la investigación en Biología Molecular se ha realizado en el laboratorio experimental, pero
la inmensa cantidad de datos generados en los últimos años ha propiciado el desarrollo de herramientas
computacionales para extraer, organizar y analizar toda la información contenida en esos datos y así poder
generar nuevo conocimiento. Por eso, hoy en día es difícil entender la investigación en biología sin la
utilización de herramientas informáticas más o menos sofisticadas.
La Bioinformática es la disciplina científica que combina biología, computación y tecnologías de la
información. El objetivo de esta disciplina es facilitar nuevas percepciones biológicas y crear una perspectiva
global que permita identificar los principios unificadores de la biología. Inicialmente, la bioinformática se
ocupaba sobre todo de la creación de bases de datos de información biológica, especialmente secuencias de
nucleótidos y de proteínas, y del desarrollo de herramientas para la utilización y análisis de los datos
contenidos en esas bases de datos. Sin embargo, cada vez es más claro que será necesario unificar toda
esta información si queremos alcanzar un cuadro completo de la biología de la célula, de forma que los
investigadores puedan comprender cómo se alteran estos procesos en las distintas enfermedades. Por eso,
la Bioinformática ha ido evolucionando para ocuparse cada vez con mayor profundidad del análisis e
interpetación de los distintos tipos de datos que se generan hoy en día (secuencias de genomas, proteomas,
orfeomas, dominios y estructuras de proteínas, etc). Estas formas de análisis e interpretación de datos
suelen denominarse Biología Computacional. Las principales áreas de la Bioinformática y de la Biología
Computacional son, por tanto, 1) el desarrollo de herramientas que permitan el acceso, uso y actualización
de distintos tipos de información biológica; 2) el desarrollo de nuevos algoritmos y soluciones estadísticas
para analizar grandes conjuntos de datos y resolver problemas biológicos complejos, tales como predecir la
estructura de un gen en una secuencia genómica, predecir la estructura de proteínas, identificar familias de
proteínas a partir de sus secuencias, etc.
En este capítulo nos centraremos únicamente en algunas herramientas necesarias para explorar el genoma
humano desde el punto de vista biomédico, pero es importante tener en cuenta que existen muchas otras
áreas de la bioinformática que no se tocarán aquí.
La figura 20.1 enlaza con algunos recursos educativos en Bioinformática.
Bases de datos en Genética Humana: bases de datos de secuencias
Las bases de datos biológicas son archivos de datos almacenados de modo eficaz y uniforme. Los datos
provienen de las distintas áreas de la Biología Molecular. Las bases de dados primarias contienen
secuencias de ADN y de proteínas, estructuras de proteínas ó perfiles de expresión de genes y proteínas.
Cada registro de estas bases de datos contiene una secuencia y su correpondiente "anotación"
(comentarios que incluyen información acerca de esa secuencia, habitualmente hechos de modo manual por
224
GENÉTICA HUMANA
algún investigador). Las bases de datos secundarias archivan los datos que son fruto del análisis de las
bases de datos primarias; por ejemplo, son bases de datos secundarias las que contienen familias de
proteínas, motivos o dominios proteicos, familias de genes, etc. Un aspecto crucial en las Bases de Datos es
la necesidad de un interfaz que permita interrogar cada base de datos (o, mejor incluso, todas a la vez) de
un modo intuitivo y sencillo, de manera que el investigador pueda obtener una imagen global y completa del
proceso biológico que se propone estudiar. Las dos herramientas principales de búsqueda que están
disponibles hoy en día son SRS (Sequence Retirieval system) para las bases de datos mantenidas en Europa
por el Instituto Europeo de Bioinformática (EBI, European Bioninformatics Institute en Hinxton, Reino
Unido) y Entrez para las bases de datos mantenidas por el Centro Nacional para la Información en
Biotecnología de los Estados Unidos (NCBI, National Center for Biotechnology Information en Bethesda,
Estados Unidos). En general, estos interfaces permiten extraer información mediante búsquedas por
texto, ya que nos ofrecen una página de búsqueda donde introducimos la expresión que queremos buscar y
obtenemos todos los registros que contienen esa expresión en alguno de sus campos. Este tipo de búsqueda
es rápido y potente, ya que nos permite obtener gran cantidad de información (secuencias, descripciones,
etc) sobre una entidad concreta.
Las tres principales bases de datos primarias de secuencias de nucleótidos son EMBL-Bank (en el EBI),
DDBJ (en el CIB de Mishima, Japón) y GenBank (en el NCBI). Desde hace unos años, estas bases de datos
firmaron un convenio de colaboración por el que constituyeron el INSDC (International Nucleotide
Sequence Database Collaboration), de modo que se sincronizan entre ellas cada 24 horas y contienen
exactamente la misma información. Además, son accesibles gratuitamente por Internet, y contienen todas
las secuencias de nucleótidos que son de dominio público. En agosto de 2005 estas bases de datos
contenían unos 47 millones de registros, con unos 52 mil millones de nucleótidos en total, y su crecimiento
en los últimos años ha sido exponencial. Están divididas en varias secciones que reflejan grupos
taxonómicos, además de otros grupos no taxonómicos como por ejemplo las secuencias protegidas por
patente. En estas bases de datos prima la cantidad sobre la calidad, en el sentido de que contienen todo
lo que los investigadores depositan en ellas, y por tanto son bastante heterogéneas en cuanto al tipo de
secuencias, su calidad, su anotación, etc. Por este motivo son también redundantes, ya que la misma
secuencia puede encontrarse repetida en distintos registros procedentes de distintos autores. Cada entrada
en estas bases de datos es un registro que debe tener un identificador único, formado por letras y/o
números, conocido como "número de acceso" (accession number), que es estable (nunca cambiará en
sucesivas versiones de ese registro). Por tanto, otro código indicará las sucesivas versiones de cada número
de acceso, por lo que es importante conocer ambos. En febrero de 1999, el consorcio GenBank/Embl/DDBJ
acordó un formato de versión consistente en el número de acceso seguido de un punto y un número.
Además, GenBank incluye el indicador "GI".
La Figura 20.2 incluye algunos tutoriales para ilustrar el uso de Entrez y de
SRS.
Entrez Gene es otra base de datos del NCBI, que podríamos calificar de secundaria ya que contiene
infromación derivada de GenBank. Se trata de una base de datos centrada en genes, más que en
secuencias, y por eso reúne todas las secuencias (además de información de otro tipo) sobre un gen
concreto, en todos los genomas en los que existen secuencias correspondientes a dicho gen. De hecho,
Entrez Gene es un interfaz único con gran cantidad de información descriptiva sobre loci genéticos
(nomenclatura, nombres alternativos, números de acceso de las secuencias, información sobre la posición y
enlaces a otros recursos). Entrez Gene se basa en un tipo especial de secuencias llamadas RefSeq,
generadas por el propio NCBI a partir de secuencias contenidas en GenBank. RefSeq pretende ser una
CAPÍTULO 20: BIOINFORMÁTICA DEL GENOMA HUMANO
225
colección integrada, completa y no redundante de secuencias de ADN genómico, ARN y proteínas, para los
principales organismos. El NCBI genera secuencias RefSeq para más de 1100 virus y 150 bacterias además
de organismos superiores (humano, ratón, rata, zebrafish, etc). Las principales características de la
colección
RefSeq
correspondientes
son
la
secuencias
no-redundancia,
proteicas,
un
la
conexión
formato
entre
constante,
secuencias
números
de
nucleotídicas
acceso
y
sus
específicos
y
mantenimiento (curation en inglés) a cargo del personal del NCBI y colaboradores externos. Los números de
acceso de RefSeq tienen el formato: XX_123456 (dos letras, guión bajo y 6 números). Las dos letras
iniciales indican el tipo de secuencia. Por ejemplo, en el caso de secuencias que han sido revisadas
manualmente podemos encontrar números de acceso de estos tipos:
NC_123456
Moléculas genómicas completas (genomas, cromosomas, plásmidos)
NG_123456
Región genómica incompleta
NM_123456
ARN mensajero
NR_123456
ARN no codificante (ribosomal, pseudogenes, etc)
NP_123456
Proteína (en futuras versiones se añadirán dos números más)
En el caso de secuencias que todavía no han sido revisadas por el personal del NCBI, los números de
acceso pueden ser:
NT_123456
Secuencias de clones usados para ensamblar genomas (BACs)
NW_123456
Ensamblajes parciales de genomas (shotgun)
XM_123456
ARN mensajero deducido de las anotaciones del ADN genómico
XR_123456
ARN no codificante deducido de las anotaciones
XP_123456
Proteínas dedicidas de las anotaciones del ADN genómico
La Figura 20.3 ilustra el uso de Entrez Gene para obtener información y
secuencias de referencia de genes completos.
Bases de datos en Genética Humana: bases de datos relacionadas con
enfermedades
Además de las bases de datos de secuencias, existen también muchos recursos de interés en Biomedicina,
entre los que destacan las bases de datos relacionadas con enfermedades. A continuación se describen las
tres que pueden ser de más utilidad al estudiante o profesional de una disciplina biomédica, para encontrar
información sobre enfermedades genéticas y las mutaciones que las causan, descripción clínica, grupos de
apoyo, etc.
Online Mendelian Inheritance in Man (OMIM) es un catálogo de genes y enfermedades genéticas
humanas, centrado especialmente en enfermedades hereditarias. OMIM se basa en el texto escrito por
Victor A. McKusick llamado Mendelian Inheritance in Man, cuya última edición es de 1998. Cada entrada
en OMIM está caracterizada por un número de acceso que consiste en un número de 6 dígitos, siendo el
primer dígito indicativo del modo de herencia de ese rasgo o gen. Así, los números OMIM que comienzan
por 1, 2 ó 6 indican loci o fenotipos de herencia autosómica, los que empiezan por 3 indican loci o fenotipos
de herencia ligada al cromosoma X, los que empiezan por 4 indican herencia ligada al cromosoma Y y los
que empiezan por 5 indican herencia mitocondrial. Además, las variantes alélicas se designan por el
226
GENÉTICA HUMANA
número OMIM seguido por un punto y un número de 4 dígitos. Cada número de acceso suele ir precedido
por un símbolo, que nos indica algo más acerca de ese locus o fenotipo. Así, un asterisco (*) indica que se
trata de un gen cuya secuencia es conocida; almohadilla (#) indica que es la descripción de un fenotipo, y
no representa necesariamente un único locus; el símbolo "más" (+) indica que se trata de la descripción
de un fenotipo y de un gen de secuencia conocida; el "tanto por cien" (%) indica que se trata de un
fenotipo o locus con herencia mendeliana comprobada, del que se desconoce la base molecular. Cuando no
hay ningún símbolo, quiere decir que esa entrada no tiene una base mendeliana confirmada, o bien que su
diferenciación de otra entrada en la base de datos no está clara. En ocasiones encontraremos un acento
circunflejo (^) para indicar que una entrada ha sido eliminada de la base de datos.
GeneClinics y GeneTests son una base de datos estadounidense de enfermedades genéticas, dirigida a
enfermos y personal sanitario, cuyo fin es proporcionar información sobre análisis geneticos y su uso en el
diagnóstico, tratamiento y consejo genético. Contiene un listado de laboratorios de Estados Unidos y del
resto del mundo donde se realizan pruebas genéticas diagnósticas y de investigación. Además, tiene un
listado de centros donde se realiza consejo genético, una serie de revisiones hechas por expertos sobre
algunas de las enfermedades genéticas más frecuentes, y materiales educativos como un glosario ilustrado
de términos genéticos, presentaciones, etc. El equivalente europeo es EDDNAL (European Directory of DNA
Laboratories), que contiene información sobre laboratorios de Europa que llevan a cabo pruebas moleculares
diagnósticas para enfermedades genéticas; sin embargo, no contiene una descripción de las enfermedades
ni ofrece apoyo a enfermos y sus familias.
Finalmente, otro tipo de bases de datos de gran importancia en Genética humana son las que reúnen
mutaciones que causan enfermedades. Aunque existen muchas bases de datos para genes o enfermedades
concretas, Human Gene Mutation Database (HGMD) intenta recopilar todas las mutaciones publicadas
que causan enferemedades hereditarias humanas (no incluye, por tanto, mutaciones somáticas ni
mutaciones del genoma mitocondrial). Desde 1999, HGMD también incluye polimorfismos asociados con
enfermedades humanas, extraídos de la literatura científica. Estos polimorfismos sólo se incluyen si su
relación con la enfermedad está demostrada de un modo convincente.
En la Figura 20.4 se pueden encontrar enlaces a OMIM, Geneclinics, EDDNAL
y HGMD.
Búsquedas en bases de datos con BLAST
En las bases de datos que contienen secuencias, además de hacer búsquedas por texto también es posible
interrogar directamente la base de datos con una secuencia concreta, con el fin de extraer todas las
secuencias parecidas o idénticas que están en la base de datos. De esta forma, es posible conocer la
identidad de una secuencia anónima, bien porque ya está depositada en la base de datos (indicando a qué
corresponde) o bien por su alto grado de homología con otras secuencias conocidas. Para hacer este tipo de
búsquedas, es necesario comparar directamente nuestra secuencia "pregunta" (query) con cada una de las
secuencias de la base de datos, y extraer únicamente las que superen un cierto grado de parecido.
Lógicamente, si buscamos en todo GenBank, por ejemplo, hemos de comparar nuestra secuencia con varios
millones de secuencias, lo que podría llevar un tiempo excesivo. Por suerte, disponemos de herramientas
bioinformáticas que realizan alineamientos de secuencias de modo rápido y eficaz, por lo que una búsqueda
típica en GenBank se completa en cuestión de segundos.
CAPÍTULO 20: BIOINFORMÁTICA DEL GENOMA HUMANO
227
Aunque no podemos entrar aquí en una descripción detallada de cómo funcionan los algoritmos para
alineamientos de secuencias, es importante describir con cierto detalle el más utilizado hoy en día para
búsquedas en bases de datos, que se llama BLAST (siglas en inglés de Basic Local Alignment Search Tool).
BLAST compara secuencias de modo "apareado" (pairwise), es decir, de dos en dos, y cada comparación da
como resultado una puntuación (score) que es mayor cuanto mayor es el parecido entre las secuencias que
se comparan. El algoritmo permite una implementación en programas informáticos de ejecución rápida y al
mismo tiempo con alta sensibilidad, que se realiza en varios pasos. En primer lugar, el programa rompe
nuestra secuencia "pregunta" (query) en pequeños fragmentos llamados "palabras" (words) y busca
todas las palabras de la base de datos que se parezcan a cada una de las palabras de nuestra secuencia.
Una vez que encuentra alineamientos entre palabras que superan una puntuación inicial determinada
(score) que viene definida por el parámetro "T", el programa extiende esos alineamientos iniciales en ambas
direcciones hasta generar un alineamiento que supere un umbral definido por el parámetro "S". La rapidez y
sensibilidad de la búsqueda viene determinada por el parámetro T, mientras que W (el tamaño de palabra)
y S pueden ser modificados dependiendo del tipo de secuencias que estemos manejando. Al final, los
posibles alineamientos se ordenan en función de la puntuación (score) final.
Es importante comprender que la puntuación de un alineamiento se obtiene utilizando matrices de
substitución, que permiten asignar una puntuación a cada posición del alineamiento. Inicialmente, las
matrices se desarrollaron para los alineamientos entre secuencias de proteínas, en las que se puede calcular
la probabilidad de que un aminoácido concreto (en una de las secuencias) esté substituido por otro
aminoácido (en la otra secuencia). Las primeras matrices utilizadas fueron las matrices PAM, creadas por
Margaret Dayhoff, y están basadas en alineamientos múltiples para determinar la frecuencia con la que se
producen sustituciones de unos aminoácidos por otros. Examinando alineamientos globales de secuencias
muy relacionadas y la frecuencia de las distintas sustituciones, Dayhoff construyó las matrices PAM (Point
Accepted Mutation), matrices de probabilidad para cada sustitución dada una distancia evolutiva concreta.
De hecho, 1 PAM representa la matriz de sustituciones para una distancia evolutiva tal que han cambiado el
1% de los aminoácidos. La matriz PAM más utilizada es la PAM250, que corresponde a una distancia
evolutiva tal que ha cambiado el 80% de los aminoácidos (aunque la mutabilidad varía para cada
aminoácido dentro de una misma matriz). Por tanto, PAM250 es útil para alinear secuencias cuando no
sabemos si son homólogas. Si la similitud entre las secuencias que queremos alinear es alta, deberemos
utilizar otras matrices (habitualmente PAM30). Steven y Jorja Henikoff construyeron después otro tipo de
matrices, llamadas matrices BLOSUM (Blocks Substitution Matrix), usando alineamientos locales múltiples
de secuencias más divergentes que en el caso de las matrices PAM. Agrupando las secuencias según
distintos umbrales de identidad de aminoácidos obtuvieron distintas matrices: por ejemplo BLOSUM80 se
derivó de los alineamientos que contenían un 80% de identidad. Por tanto, se utilizan matrices BLOSUM con
valores bajos para secuencias más divergentes (BLOSUM30) y matrices con valores altos (BLOSUM90) para
secuencias muy similares. La más utilizada es BLOSUM62. En cualquier caso, las matrices se utilizan para
puntuar alineamientos de proteínas, mientras que en alineamientos de secuencias de nucleótidos se
utilizan matrices de sustitución unitarias en las que los únicos parámetros importantes son la puntuación
que se le asigna a un emparejamiento y la penalización que se asignan a los desemparejamientos y a los
huecos.
La figura Figura 20.5 muestra las dos matrices de sustitución más utilizadas
para calcular la puntuación de alineamientos de secuencias.
Para comparar la "calidad" de cada alineamiento, BLAST calcula la probabilidad de encontrar un
alineamiento con esa misma puntuación en esa base de datos simplemente por azar, y a esa probabilidad le
228
GENÉTICA HUMANA
llama valor E (expectation), que es el parámetro que mejor describe la significación de los alineamientos
hallados por el programa. En cualquier caso, todo alineamiento debe ser revisado para comprobar que
efectivamente tiene relevancia biológica, ya que pequeñas regiones de baja complejidad, elementos
repetidos, etc suelen dar puntuaciones altas y significativas y confundir el alineamiento verdadero entre dos
secuencias. Por esto, es importante utilizar los filtros que incluye el programa, para eliminar regiones de
poco interés biológico que puedan interferir en la interpretación de los resultados. BLAST se ofrece como
varios programas distintos, dependiendo del tipo de secuencias que se comparan; blastn para dos
secuencias de nucleótidos, blastp para dos secuencias de proteínas, blastx para comparar una secuencia
de nucleótidos (traducida) con una base de datos de proteínas, tblastn para comparar una secuencia de
proteínas con una base de datos de nucleótidos (traducida), y tbalstx para comparar una secuencia de
nucleótidos (traducida) con una base de datos de nucleótidos (traducida).
La Figura 20.6 incluye enlaces a algunos tutoriales para aprender los
fundamentos de la utilización de BLAST.
Navegadores del Genoma Humano
Con la publicación del primer borrador de la secuencia completa del genoma humano en 2003, se
desarrollaron varias herramientas informáticas para poder visualizar de modo gráfico la secuencia y todas
las anotaciones hechas por distintos investigadores (por "anotación" se entiende cualquier elemento que se
sitúa sobre la secuencia, en una posición concreta: genes, ARNm, SNP, los clones utilizados para la
secuenciación, repeticiones, etc). Las tres herramientas que acabaron por imponerse, por ser las de mayor
envergadura y facilidad de uso, fueron ENSEMBL, creada por el EBI y el Instituto Sanger de Hinxton (Reino
Unido), el Genome Browser de la Universidad de California en Santa Cruz (Estados Unidos) y el Map
Viewer del NCBI (Estados Unidos). Inicialmente, cada uno de estos sitios desarrollaba su propio ensamblaje
del genoma humano a partir de los fragmentos depositados en GenBank, y después añadían todas las
anotaciones sobre dicho ensamblaje. Regularmente, cada tres o seis meses, se hacían nuevos ensamblajes
incorporando las nuevas secuencias depositadas en GenBank, pero a partir de un momento dado el
ensamblaje pasó a ser realizado únicamente por el NCBI. En el momento de escribir este texto, el
ensamblaje utilizado es el llamado Build 36 del NCBI, correspondiente a la secuencia ya terminada, y
realizado en Noviembre de 2005. Genome Browser y ENSEMBL utilizan este mismo ensamblaje para realizar
sus propias anotaciones y hacerlas de dominio público en sus respectivos sitios web.
ENSEMBL y Genome Browser son, por tanto, similares en su concepción y en su estructura, pero muy
distintos en su apariencia y en algunas de las anotaciones que ofrecen. En ambos casos, todas las
anotaciones están almacenadas como entradas de una base de datos relacional, que es interrogada
utilizando formularios en páginas web y que dispone la información en modo gráfico con elementos
interactivos. Algunos aspectos importantes, como la predicción de genes y su estructura (exones,
transcritos alternativos, etc) son elaborados siguiendo procesos distintos: por ejemplo, Genome Browser
muestra "Known Genes" (genes conocidos), basados en el alineamiento de todas las proteínas contenidas
en Uniprot y de todos los ARNm de RefSeq sobre la secuencia genómica; ENSEMBL, por el contrario, genera
sus propios genes utilizando un proceso similar pero totalmente automático. Otras anotaciones son
idénticas, ya que ambos sistemas usan el mismo procedimiento. Por ejemplo, para anotar los elementos
repetidos tanto ENSEMBL como Genome Browser utilizan un programa llamado Repeatmasker, que
detecta todas las repeticiones conocidas que están contenidas en una base de datos específica llamada
Repbase. Cada uno de los sitios tiene también una herramienta de búsqueda rápida que realiza el
CAPÍTULO 20: BIOINFORMÁTICA DEL GENOMA HUMANO
229
alineamiento de una secuencia "pregunta" sobre la secuencia del genoma. Ambos navegadores permiten ver
a la vez el genoma de otras especies, y contienen infinidad de anotaciones y enlaces con otras bases de
datos y con los registros originales de GenBank. Todo estudiante o profesional que necesite explorar el
genoma humano y los elementos que contiene debería aprender a manejar con soltura estas herramientas.
En la figura 20.7 se incluyen tutoriales para utilizar navegadores del genoma
humano.
Descargar