ÁCIDOS Y BASES

Desde hace miles de años se sabe que el vinagre, el jugo de limón y muchos otros alimentos tienen un sabor ácido. Sin embargo, no fue hasta hace unos cuantos cientos de años que se descubrió por qué estas cosas tenían un sabor ácido. El término ácido, en realidad, proviene del término Latino acere, que quiere decir ácido. Anque hay muchas diferentes definiciones de los ácidos y las bases, en esta lección introduciremmos los fundamentos de la química de los ácidos y las bases.

En el siglo XVII, el escritor irlandés y químico amateur Robert Boyle primero denominó las substancias como ácidos o bases (llamó a las bases alcalis) de acuerdo a las siguientes características:

Los Ácidos tienen un sabor ácido,corroen el metal, cambian el litmus tornasol (una tinta extraída de los líquenes) a rojo, y se vuelven menos ácidos cuando se mezclan con las bases.

Las Bases son resbaladizas, cambian el litmus a azul, y se vuelven menos básicas cuando se mezclan con ácidos.

Aunque Boyle y otros trataron de explicar por qué los ácidos y las bases se comportan de tal manera, la primera definición razonable de los ácidos y las bases no sería propuesta hasta 200 años después.

Afinales de 1800, el científico sueco Svante Arrhenius propuso que el agua puede disolver muchos compuestos separándolos en sus iones individuales. Arrhenius sugirió que los ácidos son compuestos que contienen hidrógeno y pueden disolverse en el agua para soltar iones de hidrógeno a la solución. Por ejemplo, el ácido clorídrico (HCl) se disuelve en el agua de la siguiente manera:

HCl H2O
arrow
H+(aq) + Cl(aq)

Arrhenius definió las bases como substancias que se disuelven en el agua para soltar iones de hidróxido (OH) a la solución. Por ejemplo, una base típica de acuerdo a la definición de Arrhenius es el hidróxido de sodio (NaOH):

NaOH H2O
arrow
Na+(aq) + OH(aq)

La definición de los ácidos y las bases de Arrhenius explica un sinnúmero de cosas. La teoría de Arrhenius explica el por qué todos los ácidos tienen propiedades similares (y de la misma manera por qué todas las bases son similares). Por que todos los ácidos sueltan H+ ia la solución (y todas las bases sueltan OH). La definición de Arrhenius también explica la observación de Boyle que los ácidos y las bases se neutralizan entre ellos. Esta idea, que una base puede debilitar un ácido, y vice versa, es llamada neutralización.

La Neutralización

Tal como puede ver arriba, los ácidos sueltan H+ en la solución y las bases sueltan OH. Si fuésemos a mezclar un ácido y una base, el ión H+ se combinaría con el ión OH ion para crear la molécula H2O, o simplemente agua:

H+(aq) + OH(aq) arrow H2O

La reacción neutralizante de un ácido con una base siempre producirá agua y sal, tal como se muestra abajo:

Ácido Base Agua Sal
HCl + NaOH arrow H2O + NaCl
HBr + KOH arrow H2O + KBr

Aunque Arrhenius ayudó a explicar los fundamentos de la química sobre ácidos y bases, lastimosamente sus teorías tenían límites. Por ejemplo, la definición de Arrhenius no explica por qué algunas substancias como la levadura común (NaHCO3) puede actuar como una base, a pesar de que no contenga iones de hidrógeno.

En 1923, el científico danés Johannes Brønsted y el inglés Thomas Lowry publicaron diferentes aunque similares trabajos que redefinieron la teoría de Arrhenius. En las palabras de Brønsted’s words, “… los ácidos y las bases son substancias que tiene la capacidad de dividirse o tomar iones de hidrógeno respectivamente.” La definición de Brønsted-Lowry ampliar el concepto de Arrhenius sobre los ácidos y las bases.

La definición de Brønsted-Lowry sobre los ácidos es muy similar a la de Arrhenius, cualquier substancia que pueda donar un ión de hidrógeno, es un ácido (en la definición de Brønsted, los ácidos son comúnmente referidos como donantes de protones porque un ión- hidrógeno H+ menos su electrón – es simplemente un protón).

Sin embargo, la definición de Brønsted de las bases es bastante diferente de la definición de Arrhenius. La base de Brønsted es definida como cualquier substancia que puede aceptar un ión de hidrógeno. Esencialmente, la base es el opuesto de un ácido. El NaOH y el KOH, tal como vimos arriba, segruirían siendo consideradas bases porque pueden aceptar un H+ de un ácido para formar agua. Sin embargo, la definición de Brønsted-Lowry también explica por que las substancias que no contienen OH- pueden actuar como bases. La levadura (NaHCO3), por ejemplo, actua como una base al aceptar un ión de hidrógeno de un ácido tal como se ilustra siguientemente:

Acid Base Salt
HCl + NaHCO3 arrow H2CO3 + NaCl

En este ejemplo, el acido carbónico formado (H2CO3) pasa por descomposición rápida a agua y dióxido de carbono gaseoso, y también las burbujas de solución como el gas CO2 se liberan.

pH

En la definición de Brønsted-Lowry, ambos los ácidos y las bases están relacionados con la concentración del ión de hidrógeno presente. Los ácidos aumentan la concentración de iones de hidrógeno, mientras que las bases disminuyen en la concentración de iones de hidrógeno (al aceptarlos). Por consiguiente, la acidez o la alcalinidad de algo puede ser medida por su concentración de iones de hidrógeno.

En 1909, el bioquímico danés Sören Sörensen inventó la escala pH para medir la acidez. La escala pH está descrita en la fórmula:

pH = -log [H+] Nota: la concentración es comúmente abreviada usando logaritmo, por consiguiente H+] = concentración de ión de hidrógeno. Cuando se mide el pH, [H+] es una unidad de moles H+ por litro de solución

Por ejemplo, una solución con [H+] = 1 x 10-7 moles/litro tiene un pH = 7 (una manera más simple de pensar en el pH es que es igual al exponente del H+ de la concentración, ignorando el signo de menos). La escala pH va de 0 a 14. Las substancias con un pH entre S 0 o menos de 7 son ácidos (pH y [H+] están inversamente relacionados, menor pH significa mayor [H+]). Las substancias con un pH mayor a 7 y hasta 14 son bases (mayor pH significa menor [H+]). Exactamente en el medio, en pH = 7, están las substancias neutra s, por ejemplo, el agua pura. La relación entre [H+] y pH está mostrada en la tabla de abajo, junto algunos comunes ejemplos de ácidos y base de la vida cotidiana.

[H+] pH Ejemplo
Ácidos 1 X 100 0 HCl
1 x 10-1 1 Äcido estomacal
1 x 10-2 2 Jugo de limón
1 x 10-3 3 Vinagre
1 x 10-4 4 Soda
1 x 10-5 5 Agua de lluvia
1 x 10-6 6 Leche
Neutral 1 x 10-7 7 Agua pura
Bases 1 x 10-8 8 Claras de huevo
1 x 10-9 9 Levadura
1 x 10-10 10 Tums®antiácidos
1 x 10-11 11 Amoníaco
1 x 10-12 12 Caliza Mineral – Ca(OH)2
1 x 10-13 13 Drano®
1 x 10-14 14 NaOH

Anuncios

EL MOVIMIENTO

Hagámonos una pregunta: ¿Qué cosas se mueven? Un automóvil que viaja hacia la costa; una hoja que, agitada por el viento, cae de un árbol; una pelota que es pateada por un futbolista; un atleta que corre tras una meta; un electrón que vibra en su entorno; la Tierra alrededor del Sol.

Quizás deberíamos preguntarnos ¿hay algo que no se mueva?

Como la respuesta parece obvia (“todo se mueve”) aboquémonos a averiguar ¿qué es movimiento?

Moviiento002
Todo se mueve.

Si nos referimos a un objeto que se mueve, diríamos que el objeto tiene movimiento si cambia de posición a través del tiempo.

Entonces, se define el movimiento como un cambio de posición de un cuerpo con respecto a otro cuerpo (donde se sitúa un observador), durante un espacio de tiempo.

El carácter relativo del movimiento

¿Han escuchado hablar de relatividad ? Relatividad es un concepto muy utilizado cuando se intenta describir un movimiento.

De acuerdo con la anterior definición, para estudiar un movimiento es preciso fijar previamente la posición del observador que contempla dicho movimiento.

En física hablar de un observador equivale a situarlo fijo con respecto al objeto o conjunto de objetos que definen el sistema de referencia. Es posible que un mismo cuerpo esté en reposo para un observador —o visto desde un sistema de referencia determinado— y en movimiento para otro.

De hecho, los movimientos son relativos. Relativos a un sistema de referencia .

Moviiento004
El metro se mueve con respecto a la estación.

Y un sistema de referencia es algo que suponemos en reposo. Respecto al cual describimos los movimientos.

Así, un pasajero sentado en el interior de un avión que despega estará en reposo respecto del propio avión y en movimiento respecto de la pista de aterrizaje.

Otro ejemplo: una estación de metro es el sistema de referencia para los vagones que se mueven dentro de ella. Si hablamos de un automóvil que se mueve, en realidad estamos usando — sin nombrarlo explícitamente— un sistema de referencia. En este caso sería el suelo, la porción de la superficie de la tierra en donde se desplaza el automóvil. Mientras una roca permanece en su lugar en el suelo, el automóvil va ocupando sucesivamente distintas posiciones respecto del suelo.

El estado de reposo o de movimiento de un cuerpo no es, por tanto, absoluto o independiente de la situación del observador, sino relativo; es decir, depende del sistema de referencia desde el que se observe.

Pero veamos lo que sucede a los ocupantes del automóvil de nuestro ejemplo.

Vistas desde fuera del automóvil, las personas que van en su interior también se mueven junto al automóvil. Llevan la misma rapidez, la misma velocidad del automóvil.

Vistas desde dentro del automóvil, las personas están en reposo una respecto a la otra. Podríamos darnos cuenta que una no se mueve respecto a otra, permanecen siempre a la misma distancia entre sí. A lo más habrá movimientos pequeños, limitados por el tamaño del interior del automóvil.

Entonces, una persona que va en el automóvil se mueve respecto al suelo con la misma rapidez y velocidad que el automóvil; sin embargo, respecto a otra persona u objeto que está en el interior del mismo, esa persona no tendría movimiento.

Moviiento006
Los ocupantes del automóvi ¿se mueven o están en reposo?

Tomando en cuenta lo anterior, habrá que referirse a un sistema de referencia cuando queramos hablar de que algo se mueve. Habrá que decir, por ejemplo, que “tal cosa se mueve respecto a…”

Ahora bien, en el lenguaje común, cuando no hacemos mención a un sistema de referencia, el sistema de referencia utilizado será la superficie de la Tierra. Es decir, cuando decimos que un automóvil viaja a 60 kilómetros por hora, es respecto a la superficie de la Tierra que el automóvil tiene esa rapidez. La superficie de la Tierra la estamos considerando en reposo.

Estudio de los movimientos

La observación y el estudio de los movimientos se conoce desde tiempos remotos. Los griegos decían “Ignorar el movimiento es ignorar la naturaleza”, y con ello que reflejaban la importancia capital que se le otorgaba al tema.

Luego,  científicos y filósofos medievales observaron los movimientos de los cuerpos y especularon sobre sus características. Los propios artilleros de la época manejaron de una forma práctica el tiro de proyectiles de modo que supieron inclinar convenientemente el cañón para conseguir el máximo alcance de la bala. Sin embargo, el estudio propiamente científico del movimiento se inicia con Galileo Galilei . A él se debe una buena parte de los conceptos que se refieren al movimiento.

El concepto de cinemática

Es posible estudiar el movimiento de dos maneras:

a) describiéndolo, a partir de ciertas magnitudes físicas, a saber: posición, velocidad y aceleración ( cinemática );

b) analizando las causas que originan dicho movimiento ( dinámica ).

En el primer caso se estudia cómo se mueve un cuerpo, mientras que en el segundo se considera el por qué se mueve.

La cinemática , entonces,  es la parte de la física que estudia cómo se mueven los cuerpos sin pretender explicar las causas que originan dichos movimientos.

La dinámica es la rama de la física que se ocupa del movimiento de los objetos y de su respuesta a las fuerzas.

El tiempo y el espacio

Moviiento008

Para hablar de movimiento es imprescindible referirse a dos magnitudes elementales de la física como son el espacio y el tiempo .

Íntimamente relacionados, el tiempo (t) permite ordenar los sucesos físicos en una escala que distingue entre pasado, presente y futuro, mientras que el espacio (s) puede verse como un medio abstracto en el que se desplazan los cuerpos. Se describe normalmente mediante tres coordenadas que corresponden a la altura , la anchura y la profundidad .

Ahora bien, al referirnos al movimiento, que sabemos se realiza en un espacio y en un tiempo determinados, es preciso tener en cuenta, además, que éste posee varias características (o condiciones) que lo convierten en tal. Si falta alguna de ellas, el movimiento no se puede realizar.

Estas características, condiciones o conceptos involucrados en el movimiento son:

Posición, desplazamiento, trayectoria, velocidad, aceleración deceleración .

Posición

La posición del móvil se puede relacionar con el tiempo mediante una función x = f(t) .

Desplazamiento

Moviiento015

Supongamos ahora que en el tiempo , el móvil se encuentra en posición , más tarde, en el instante t’ el móvil se encontrará en la posición x’ . Decimos que móvil se ha desplazado Δx = x’ – x en el intervalo de tiempo Δt = t’ – t , medido desde el instante al instante t’ .

Trayectoria

Para simplificar el estudio del movimiento, representaremos a los cuerpos móviles por puntos geométricos, olvidándonos, por el momento, de su forma y tamaño.

Se llama trayectoria a la línea que describe el punto que representa al cuerpo en movimiento, conforme va ocupando posiciones sucesivas con el transcurso del tiempo.

Una trayectoria puede adoptar diversas formas: rectilínea, curva, parabólica, mixta , etc.

La estela que deja en el cielo un avión a reacción o los rieles de una línea de ferrocarril son representaciones aproximadas de esa línea imaginaria que se denomina trayectoria.

Moviiento017
Trayectoria de una pelota de golf.

Según sea la forma de su trayectoria los movimientos se clasifican en rectilíneos curvilíneos (o circulares) .

Un automóvil que recorra una calle recta describe un movimiento rectilíneo, mientras que cuando tome una curva o dé una vuelta a una plaza circular, describirá un movimiento curvilíneo.

Según esta clasificación podemos encontrar:

Movimiento rectilíneo uniforme

Movimiento rectilíneo uniformemente acelerado

Movimiento curvilíneo  (o circular) uniforme

Movimiento curvilíneo (o circular) uniformemente acelerado .

El movimiento rectilíneo uniforme lo tiene un objeto cuando cambia de posición en el tiempo (movimiento) en una trayectoria que es una línea recta (rectilíneo) y con velocidad constante (uniforme).

En la naturaleza existen movimientos que se aproximan bastante al movimiento rectilíneo. Buenos ejemplos son: un hombre o animal caminando regularmente, el movimiento de una gota de agua al final de su caída en un día sin viento, el movimiento de la luz en un medio determinado (homogéneo en cuanto a su densidad), el movimiento del sonido en un medio determinado (homogéneo en cuanto a su densidad).

Otros ejemplos, no naturales, podrían ser: el de un automóvil en una carretera recta, aunque en este caso el movimiento rectilíneo uniforme se presenta en tramos. Es muy difícil que —estrictamente hablando— el automóvil se mueva sin modificar en absolutamente nada su velocidad.

A pesar de que el movimiento rectilíneo uniforme no es lo más común que existe, su estudio es muy útil pues hay muchos movimientos que pueden aproximarse a este tipo.

La velocidad

La descripción de un movimiento supone el conocer algo más que su trayectoria y su desplazamiento. Una característica que añade una información importante sobre el movimiento es la rapidez . En general, cuando algo cambia con el tiempo se emplea el término de rapidez para describir su ritmo de variación temporal. En cinemática la rapidez con la que se produce un movimiento se denomina velocidad y se define como el espacio que recorre el móvil sobre la trayectoria en la unidad de tiempo.

Velocidad constante

Moviiento019
Velocidad constante, sólo en ciertos tramos.

Decir que un cuerpo se mueve con velocidad constante es lo mismo que decir que la rapidez de su movimiento no varía; es decir, que va recorriendo la trayectoria y ganando espacio siempre al mismo ritmo.

Los movimientos de los trenes o los de los coches en una autopista se aproximan bastante en algunos tramos a movimientos de velocidad constante. En dos intervalos de tiempo cualesquiera de igual duración el cuerpo cubrirá la misma distancia.

El móvil recorre, por tanto, espacios iguales en tiempos iguales, lo cual significa que cuando la velocidad es constante el espacio que recorre el cuerpo móvil sobre la trayectoria y el tiempo que emplea en recorrerlo son magnitudes directamente proporcionales.

La unidad de medida de la velocidad es el cociente entre la unidad de medida de espacio o distancia y la unidad de tiempo. En el Sistema Internacional (SI) es el metro/segundo (m/s) o ms –1 . Sin embargo, resulta muy frecuente en la vida diaria la utilización de una unidad práctica de velocidad, el kilómetro/hora (km/h),que no corresponde al SI. La relación entre ambas es la que sigue:

movimiento_concepto001

o inversamente

movimiento_concepto002

Velocidad media

La prensa diaria publica, de vez en cuando, la velocidad media de circulación en automóvil característica de las grandes ciudades. Si en Santiago, por ejemplo, se cifra en 20 km/h. ello no significa que los coches se desplacen por las calles siempre a esa velocidad.

Tomando como referencia un trayecto de 10 km, el coche puede alcanzar los 60 o incluso los 70 km/h, pero en el trayecto completo ha de frenar y parar a causa de las retenciones, de modo que para cubrir los 10 km del recorrido establecido emplea media hora. La velocidad del coche ha cambiado con el tiempo, pero, en promedio, y a efectos de rapidez el movimiento equivale a otro que se hubiera efectuado a una velocidad constante de 20 km/h.

Velocidad instantánea

Moviiento022
Una escalera mecánica, se mueve a velocidad constante.

En general, la velocidad con la que se mueve un coche, un avión o una motocicleta, por ejemplo, varía de un instante a otro. Ello queda reflejado en el movimiento de la aguja de sus respectivos velocímetros.

El valor que toma la velocidad en un instante dado recibe el nombre de velocidad instantánea.

Aun cuando la noción de instante, al igual que la noción de punto, constituye una abstracción, es posible aproximarse bastante a ella considerándola como un intervalo de tiempo muy pequeño.

Así, la lectura del velocímetro se produce en centésimas de segundos y ese tiempo puede ser tomado en el movimiento de un coche como un instante, ya que durante él la velocidad prácticamente no cambia de magnitud.

Aceleración

En los movimientos ordinarios la velocidad no se mantiene constante, sino que varía con el tiempo. En tales casos es posible definir una nueva magnitud que describa la rapidez con la que se producen tales variaciones de la velocidad. Dicha magnitud se denomina aceleración.

Se define como lo que varía la velocidad en la unidad de tiempo y representa, por tanto, el ritmo de variación de la velocidad con el tiempo.

Una de las características que definen la potencia de un automóvil es su capacidad para ganar velocidad. Por tal motivo, los fabricantes suelen informar de ello al comprador, indicando qué tiempo (en segundos) tarda el modelo en cuestión en alcanzar los 100 km/h partiendo del reposo. Ese tiempo, que no es propiamente una aceleración, está directamente relacionado con ella, puesto que cuanto mayor sea la rapidez con la que el coche gana velocidad, menor será el tiempo que emplea en pasar de 0 a 100 km/h.

Aceleración constante

Un cuerpo que se mueva con aceleración constante irá ganando velocidad con el tiempo de un modo uniforme; es decir, al mismo ritmo. Eso significa que lo que aumenta su velocidad en un intervalo dado de tiempo es igual a lo que aumenta en otro intervalo posterior, siempre y cuando las amplitudes o duraciones de ambos intervalos sean iguales.

En otros términos, el móvil gana velocidad en cantidades iguales si los tiempos son iguales y la velocidad resulta, en tales casos, directamente proporcional al tiempo.

Del mismo modo que para definir la velocidad es necesario poner la atención en la relación entre espacio y tiempo , para definir la aceleración es preciso pensar sólo en términos de velocidad y tiempo .

Aceleración media

La aceleración media representa lo que por término medio varía la velocidad en cada unidad de tiempo.

Aun cuando la velocidad de un móvil cambie de un modo irregular, o no uniforme, es posible considerar otro movimiento equivalente al anterior, en lo que a la ganancia de velocidad respecta, que aumente su velocidad lo mismo y en el mismo tiempo, pero sólo que a un ritmo constante. La aceleración de ese movimiento equivalente, pero de aceleración constante es, precisamente, la aceleración media.

Aceleración instantánea

Es la aceleración referida a un intervalo de tiempo lo suficientemente pequeño como para poder considerar despreciable la variación de la velocidad del móvil durante él.

Aun cuando los automóviles no disponen de acelerómetro o medidor de aceleración, su fabricación sería relativamente sencilla y permitiría la lectura instantánea de la magnitud aceleración.

Que en un momento dado la columna luminosa de un acelerómetro marcase 7 m/s significaría que, de mantenerse constante el ritmo de progresión del movimiento leído para ese instante, el automóvil ganaría velocidad a razón de 7 metros por segundo en cada segundo.

Moviiento024
Aumentos o variaciones de velocidad, resultado de aceleraciones.

Deceleraciones

Aun cuando las variaciones de velocidad consideradas hasta ahora han sido únicamente aumentos, un móvil puede también disminuir su velocidad con el tiempo. En tales casos, los valores de la velocidad posteriores en el tiempo son menores que los anteriores, por lo que su variación es negativa. Esta aceleración negativa es característica de los movimientos de frenado y recibe el nombre de deceleración.

La deceleración es un tipo particular de aceleración, por lo que ha de considerarse como tal. Sólo el signo menos indica que está asociada a un movimiento cuya velocidad disminuye con el tiempo.

Las gráficas cinemáticas

La representación gráfica de un movimiento y de sus características permite extraer una información valiosa sobre dicho movimiento.

La trayectoria es una primera descripción gráfica del movimiento; en ella no se recoge (explícitamente) la variable tiempo, sino que se representan únicamente las posiciones del punto móvil, o, lo que es lo mismo, la relación entre sus coordenadas a lo largo del movimiento. Es, por tanto, una gráfica espacial.

Moviiento026
En el diagrama, la velocidad (en m/s) en el eje vertical; el tiempo (en seg.) en el eje horizontal.

Las gráficas en las que se refleja la variación de diferentes magnitudes con respecto al tiempo son gráficas temporales y por sí mismas proporcionan una buena descripción de las características del movimiento considerado.

En todas ellas el tiempo se representa en el eje horizontal o de abscisas y la magnitud cinemática elegida —como el espacio s, la velocidad o la aceleración — se representa en el eje vertical o de ordenadas.

La variación con respecto al tiempo de cada una de estas magnitudes da lugar a la correspondiente gráfica o diagrama cinemático.

Vectores para la cinemática

Cuando se pretende estudiar un movimiento de la forma más completa posible, es necesario considerar las magnitudes cinemáticas tales como el desplazamiento, la velocidad o la aceleración de modo que recojan los aspectos direccionales del movimiento; es decir, los cambios de orientación del punto móvil en el espacio y sus consecuencias. Para ello se recurre a los vectores , esos elementos matemáticos que permiten describir los aspectos relativos a la dirección y al sentido.

 

GENÉTICA .

CONCEPTO BÁSICO

LA GENÉTICA estudia la forma como las características de los organismos vivos, sean éstas morfológicas, fisiológicas, bioquímicas o conductuales, se transmiten, se generan y se expresan, de una generación a otra, bajo diferentes condiciones ambientales.

La genética, pues, intenta explicar cómo se heredan y se modifican las características de los seres vivos, que pueden ser de forma (la altura de una planta, el color de sus semillas, la forma de la flor; etc.), fisiológicas (por ejemplo, la constitución de determinada proteína que lleva a cabo una función específica dentro del cuerpo de un animal), e incluso de comportamiento (en la forma de cortejos antes del apareamiento en ciertos grupos de aves, o la forma de aparearse de los mamíferos, etc.). De esta forma, la genética trata de estudiar cómo estas características pasan de padres a hijos, a nietos, etc., y por qué, a su vez, varían generación tras generación.

TODO TIENE SU HISTORIA. LA GENÉTICA MENDELIANA

Esta ciencia se ha desarrollado de manera vertiginosa durante el siglo XX, aunque tiene sus raíces en el siglo XIX, época en que los científicos intentaban contestar las cuestiones relativas a la variación y la herencia. Antes de que la genética existiera como ciencia, principalmente durante la segunda mitad del siglo XIX, la herencia se estudiaba a partir de lo que se llama la hibridización o cruza de organismos entre sí para analizar su descendencia.

La hibridología, como se le llamaba a esta disciplina, había sido practicada a gran escala por científicos naturales como Kolreuter entre l760 y 1766, Knight en 1779, Gaertner entre l792 y 1850 y Naudin en 1863. Estos investigadores empleaban el método del tanteo experimental: cruzar dos individuos y analizar su descendencia para obtener datos experimentales acerca de la herencia de ciertas características de los organismos. Este método proporcionó datos importantes acerca de la fertilidad o esterilidad de los híbridos (descendientes), y también datos acerca de la imposibilidad de obtener cruzas fértiles de organismos de diferentes especies (por ejemplo, si se cruza a un perro con una gata, etc.). Sin embargo, no pudieron obtenerse generalizaciones o principios que nos explicaran la herencia; primero, porque estos experimentos trataban con características complejas, lo cual imposibilitaba el análisis detallado y simple, y segundo, hacían falta datos numéricos y pruebas rigurosamente controladas que pudieran facilitar su análisis. Además, estos estudios se hacían al margen de los avances de otras ramas de la biología como la citología (ciencia que estudia a la célula, sus componentes y su comportamiento durante la división celular), y particularmente aquellos hallazgos que identificaban las partículas constitutivas de la célula que se multiplicaban y dividían durante las divisiones celulares, las llamadas cromosomas.

Pero, ¿cuándo surge la genética? La genética surge con los trabajos del monje austríaco Gregor Mendel (1822-1884), quien pasó parte de su vida trabajando con chícharos en su jardín de la abadía de Brno. En esa época, hacia 1866, eran bien conocidos los trabajos del gran naturalista Charles Darwin, quien aportó a la biología la primera teoría que explica cómo han evolucionado los organismos vivos. La intención de Mendel era demostrar; en el terreno experimental, cuál era e origen de las especies, dilema que durante el siglo XIX atrajo la atención de muchos naturalistas del mundo. Sin embargo, Mendel no logró explicar el origen de las especies con sus trabajos, pero sí logró generalizar algunos principios acerca de cómo se heredan los caracteres de los individuos de generación en generación.

Gracias a la buena educación que recibió Mendel, a pesar de ser hijo de unos campesinos pobres de Silesia, pudo graduarse y dar clases de física y ciencias naturales. Durante estos años, las ideas acerca del origen de las especies inquietaban a muchos naturalistas y científicos no sólo de Europa, sino de América, inquietud a la cual Mendel no había escapado. Algunos de sus maestros directos, como el botánico vienés Franz Unger, apoyaban la idea de que las variedades aparecen en la naturaleza y que con el paso del tiempo y sólo algunas de ellas, después de muchísimas generaciones se convierten en especies bien diferenciadas. Gracias a esta idea transmitida por sus profesores, Mendel creyó que podría encontrar la respuesta al origen de las especies si estudiaba de cerca el problema de las variaciones en la naturaleza.

A Mendel le gustaba mucho el trabajo experimental y las matemáticas (y por fortuna su meticulosidad permitió que sus notas se convirtieran posteriormente en memorias), y adoptó la idea de un método de análisis de poblaciones, en lugar de analizar a individuos particulares. Mendel seleccionó correctamente las plantas que habría de usar en sus experimentos. Esta selección le tomó dos años de cruzamientos controlados en las plantas de chícharos Pisum sativum, Pisum quadratum y Pisum umbellatum, las cuales cumplían con ciertas condiciones que las hacían más prácticas que otras: flor grande, de fecundación cruzada (es decir, que una planta es normalmente polinizada por otra), y fáciles de emascular (extraer los estambres que son las partes masculinas de la planta y que contienen los granos de polen o células germinales masculinas). Así, después de dos años de trabajos de selección, escogió solamente 22 variedades de chícharos.

Mendel pensaba, que con el control del tipo de cruzas entre los diferentes individuos, se podría rastrear la herencia de ciertas características durante varias generaciones y, con esto, establecer los principios que explican su herencia o transmisión. Mendel eligió deliberadamente características simples con formas claramente perceptibles y no intermedias, por ejemplo, el tipo de la semilla era liso o rugoso, la planta tenía un tallo alto o enano, etc. Haciendo estas cruzas durante varias generaciones Mendel pudo explicar la forma de transmisión de los caracteres. Sus investigaciones sobre estos patrones de la herencia en las plantas de jardín lo llevaron a suponer la idea de la herencia de partes. ¿Qué significa esto? Mendel se dio cuenta de que al estudiar ciertas características como el color de la flor el tamaño del tallo, el tipo de semilla o la forma y textura de ésta, las contribuciones paternas (del padre y de la madre) se expresaban con desigualdad. Si estos rasgos o características de cada planta se heredan como elementospartes, entonces cada planta recibe un elemento de cada progenitor, uno del padre y otro de la madre. Esta herencia de partes significa que cada progenitor contribuye con un elemento, y por lo tanto que la cría tiene pares de elementos. A estos elementos Mendel los llamó caracteres diferenciantes porque, precisamente, diferenciaban a las plantas entre sí.

Una de las primeras observaciones de Mendel al hacer sus cruzas entre plantas fue que diferían según el carácter; por ejemplo, al cruzar una planta de tallo alto con una de tallo corto, los hijos, es decir; la primera generación, presentaban una de las dos características de los padres, y la otra aparentemente desaparecía. Al cruzar a estos hijos entre sí para obtener una segunda generación, Mendel notó que el carácter que había desaparecido reaparecía en una proporción constante: por cada tres plantas de tallo largo aparecía una con tallo corto (3:1). De aquí Mendel sugirió que aquel carácter que aparecía en la primera generación de forma uniforme dominaba, o era dominante sobre aquel que desaparecía en apariencia, y a este segundo carácter le denominó recesivo.

La primera generalización que obtuvo de sus datos (ahora conocida como la primera ley de Mendel) se refería a la separación o segregación de los elementos durante la formación de los gametos (que son las células germinales, óvulos y espermatozoides en los animales, y óvulo y polen en las plantas). Su segunda generalización (o segunda ley de Mendel) se refería a la herencia independientemente de los pares de elementos, es decir; el que una planta tenga el tallo largo o corto (un par de elementos) es independiente de si su semilla es lisa o rugosa (otro par de elementos), y a su vez, es independiente de si la flor es blanca o amarilla, etc. (Figura 1.)

Figura 1. Experimentos de Mendel. En sus primeros experimentos Mendel trabajó con chícharos de forma alternativamente redonda o rugosa. Polinizó manualmente las flores de una línea pura de chícharos redondos con el polen de una línea pura de rugosos. Las semillas de esta primera generación F1 (todas redondas) fueron plantadas y germinadas. Mendel obtuvo ¾ de semillas redondas y ¼ de semillas rugosas en la segunda generación o F2. Posteriormente plantó las semillas de la F2 y dejo que las plantas adultas se autopolinizaran entre sí. Todas las semillas rugosas F2 produjeron semillas rugosas, las redondas F2 produjeron dos tipos: algunas se comportaron igual que la cepa paterna, dando semillas redondas, mientras que otras lo hacían como las plantas F1 produciendo tanto semillas rugosas como lisas. La relación F1 fue entonces 1:2:1, ó, ¼ redondas puras, ½ redondas no puras y ¼ rugosas puras.

A partir de estas leyes conocidas ahora como las leyes de Mendel, es que se construyó la genética moderna durante el presente siglo XX, ya que mientras Mendel vivió no fueron bien acogidas. ¿Por qué?

Existen al menos dos versiones de por qué el trabajo de Mendel no fue reconocido hasta entrado el siglo XX. Según la primera, su artículo fue publicado en una oscura revista científica a la que pocos investigadores tenían acceso, la Revista de la Sociedad de Ciencias Naturales de Brno. La segunda es la idea de que Mendel era un investigador poco conocido en el medio científico de su época. Estos dos aspectos reflejan la concepción que comúnmente se tiene de la ciencia y sus practicantes. La ciencia está basada como cualquier otro aspecto de la cultura en la comunicación de unos individuos con otros y por lo tanto su repercusión descansa tanto en la distribución de los artículos científicos como en el reconocimiento que el autor tiene. ¿Quién no quiere leer el último libro de un escritor ya reconocido? En estos casos la obra tiene un valor previo por haber sido escrita por éste o aquel autor; valor que es independiente de la importancia intrínseca de la obra. Asimismo, en la actualidad, y estamos seguros de que también en el siglo pasado, hay revistas más reconocidas que otras por la calidad de los artículos, lo cual contribuye a que sea parcial la búsqueda del buen trabajo científico. Si suponemos que éste fue el caso, podríamos afirmar que Mendel no fue reconocido en parte por estas dos razones, como lo demuestra el hecho de las presentaciones que hizo de su trabajo en las reuniones de febrero y marzo de 1865 de la Sociedad de Ciencias Naturales de Brno no recibieron comentarios de ningún tipo ni en forma de preguntas ni como críticas. De hecho se afirma que ni el ambiente científico ni en el cultural se apreció la importancia de sus descubrimientos.

Además algunos de los científicos más renombrados de la época, como Darwin, Naudin y Nageli, no hicieron referencia a los resultados de Mendel.

Por ejemplo, Darwin nunca se refirió a estos estudios en ninguno de sus escritos, aun cuando con frecuencia se refiere a otras investigaciones del mismo tema que se llevaron a cabo en la misma época de Mendel. Cabe mencionar que, por ejemplo, el botánico francés Naudin expresó en 1863 la idea de que los elementos derivados de los padres se separan en el híbrido y que algunos de los caracteres de las formas de los padres pueden aparecer en la generación siguiente. Este hallazgo de Naudin, lamentablemente, carecía de datos numéricos y pruebas rigurosas que sustentaran tales afirmaciones.

En cuanto al más famoso botánico de la época, Nageli, se sabe que Mendel le envió una copia de su manuscrito con la idea de recibir sus opiniones. De aquí resultó una activa correspondencia, de la cual sólo sobreviven las cartas de Mendel. Esta correspondencia revela una de dos cosas: o Nageli no entendió los resultados de Mendel o no estaba de acuerdo con ellos. Nageli nunca invitó a Mendel a publicar sus resultados en otras revistas donde sin duda hubiesen sido leídas por otros científicos. Nageli le propuso a Mendel que extendiera sus experimentos a otras plantas, pero Mendel se sintió apabullado por esta idea y no hizo mayores esfuerzos por relacionarse con otros botánicos o hibridólogos para intercambiar opiniones. Mendel simplemente pensó que los resultados de sus experimentos eran datos aislados que no podían aplicarse a otras plantas.

Más recientemente, y como apoyo a la idea de que los postulados de Mendel no fueron comprendidos, se ha encontrado que de los tres investigadores que redescubrieron a Mendel, el holandés Hugo de Vries (1848-1935), el alemán Carl Correns (1864-1933) y el austriaco Eric Tschermak von Seysenegg (1871-1962), sólo Correns comprendió completamente el trabajo de Mendel y sus consecuencias. Tanto De Vries como Tschermak no entendían conceptos como dominancia y confundían en una las dos leyes de Mendel en una sola. Es entonces muy claro que el trabajo de Mendel no fue entendido ni en sus aspectos técnicos ni tampoco en su importancia. De hecho, el entendimiento de su relevancia vino antes de ser entendido técnicamente.

Una vez que este trabajo pasó inadvertido por la comunidad científica de su época, en 1900 aparecen publicados tres trabajos que de manera independiente hacen referencia a Mendel. Estos trabajos fueron de los investigadores ya mencionados, Hugo de Vries (1900), Tscherrnak (1900) y Correns (1900). De estos tres autores el más sobresaliente por su repercusión en las ciencias naturales fue Hugo de Vries, quien a pesar de haber redescubierto el trabajo mendeliano no pensaba que fueran válidos los principios que establecía. Esto se debe a que Hugo de Vries pensaba que en el problema del origen de las especies (que por esta época era la comidilla de todos los días) el mendelismo no tenía una aplicabilidad universal. Así, podemos marcar a 1900 como el año del nacimiento de la genética, pues fue cuando se redescubrieron las leyes de Mendel, y se modificó, la manera de pensar y de experimentar de los científicos dedicados a los problemas de la herencia. Una vez que esto sucedió, el mendelismo se expandió por Europa y América hasta convertirse en un tema de discusión común y corriente. Genetistas famosos como William Bateson (1861-1926) se darían a conocer por la introducción y defensa del mendelismo en Inglaterra. Bateson sería también el que acuñara el término de genética en 1906.

TEORÍA CROMOSÓMICA DE LA HERENCIA

Durante los años siguientes a los que Mendel anunció sus leyes no se conocía lo suficiente del comportamiento de los cromosomas como para establecer una relación entre éstos y las leyes de Mendel e interpretarlas en términos de las divisiones celulares que tienen lugar en el desarrollo de las células que forman los gametos (meiosis).

Hacia finales del siglo XIX se había logrado estudiar los cambios que ocurren en la meiosis y su posible relación con la herencia; en particular se destacan los trabajos de Augusto Weismann, pues aunque resultaron equivocados a este respecto, señalaron la importancia de relacionar a los cromosomas con la herencia de los caracteres. Fue después de la revalorización de las leyes de Mendel, que en 1903 Sutton logra aplicar la primera y la segunda leyes de Mendel al comportamiento de los cromosomas durante la meiosis.

Si los cromosomas son los portadores de los elementos hereditarios o genes, entonces podemos suponer que cuando los cromosomas se separan, llevando a los genes consigo, cada elemento del par pasa a células diferentes, y que, por lo tanto, cada célula lleve sólo un elemento del par, el de la madre o el del padre. Este comportamiento satisface la primera ley de Mendel.

Ahora, si tenemos dos factores o genes y uno se encuentra en un par de cromosomas (digamos, el gene que determina si la semilla es lisa o rugosa), mientras que otro factor (digamos, el gene que determina si el tallo es largo o corto) se halla en otro par de cromosomas, y durante la división celular meiótica éstos se separan azarosamente, es decir, independientemente uno del otro, entonces la distribución de estos cromosomas y sus posteriores combinaciones debidas a la casualidad de la fertilización nos explican la segunda ley de Mendel, y así, el hecho de que una planta tenga la semilla lisa o rugosa será independiente del hecho de si su tallo es largo o corto.

Gracias al redescubrimiento de estas leyes y su aplicabilidad para tratar los problemas de la herencia se comienza a desarrollar la genética moderna. Del establecimiento de líneas de investigación que utilizaban las leyes de Mendel y partían de la concepción de la herencia de partes es que se pudo demostrar que este tipo de herencia, la mendeliana, era universal. Nos referiremos brevemente a las tres líneas de investigación más importantes por las consecuencias de sus descubrimientos.

La primera la propuso Johannsen, botánico danés. Según él, al tomar una semilla de Phaseolus vulgaris (el frijol), ya fuera gorda o flaca, y hacerla germinar; entre sus descendientes encontraríamos semillas de todos los tipos, no sólo del tipo de la semilla original. (Por cierto, fue Johannsen quien en 1909 acuñaría los términos de gene, genotipo y fenotipo. Este último se refiere a las características que nosotros vemos, como pueden ser formas, texturas, colores, etc., mientras que el genotipo se refiere a lo que no podemos ver directamente sino sólo a través de técnicas más complejas que es la suma o el conjunto de todos los genes, o sea el genotipo.)

El segundo descubrimiento notable lo realizaron los botánicos E. M. East, inglés y H. Nilsson-Ehle, sueco. Admiten que ciertos rasgos hereditarios no discretos, sino cuantitativos, seguían estrictamente las leyes de Mendel; por ejemplo, el color rojizo del pericarpio (la envoltura) de la semilla del maíz se debía a la colaboración de más de un factor o gene. Fue así como se estableció la posibilidad de que más de un gene interviniera en la formación de un carácter determinado.

Sin lugar a dudas, la tercera línea de investigación fue la que más dividendos dejó a la naciente ciencia de la genética, tanto por sus descubrimientos como por la introducción de técnicas novedosas. Éstas no sólo revolucionaron el modo de tratar los problemas de la herencia, sino que establecieron una nueva metodología experimental y una serie de principios fundamentales que permitieron resolver algunos de los enigmas que ya habían sido planteados anteriormente, lo cual significó un gran avance. Nos referimos a la escuela morganiana, también conocida como El grupo de las moscas.

La historia de cómo se formó este grupo, de cuál era el ambiente de trabajo y de cuáles fueron sus resultados y aportes a la genética ha sido el objeto de estudio de muchos historiadores de la ciencia, así como de sociólogos y filósofos de la ciencia, que lo han tomado como modelo y estudio de caso para entender, por ejemplo, de qué manera intervienen factores individuales, como la competencia o la envidia, en el avance de la ciencia; cómo está estructurado un grupo jerárquicamente; o simplemente, cómo ocurre el avance conceptual y teórico dentro de una disciplina científica.

El nombre (escuela morganiana) se debe a que fue fundada por Thomas Hunt Morgan, y la designación de Grupo Drosophila o Grupo de las moscas se debe a que trabajaron con la conocida mosca de la fruta Drosophila melanogaster (todos la hemos visto rondando la fruta en descomposición en nuestras casas). Cuando Morgan y sus estudiantes empezaron con sus investigaciones, se acostumbraba trabajar con plantas en los estudios de la herencia. De hecho, casi todos los grandes avances durante el siglo XIX en el terreno de la hibridología fueron en el campo de la botánica. Sin embargo, esta escuela introdujo a un animal, la mosca de la fruta, como objeto de estudio, y posteriormente como vehículo para el estudio de los efectos que causaban en el material hereditario elementos externos como la radiación.

Thomas Hunt Morgan (1866-1945) empezó a trabajar en el campo experimental hacia 1908 cuando, impresionado por los trabajos de botánicos famosos como Hugo de Vries (quien había propuesto la teoría de la mutación como alternativa a la selección natural de Darwin a principios de siglo), quiso repetir sus experimentos en el reino animal (él era zoólogo) y demostrar que los cambios drásticos en los organismos pueden hacer grandes modificaciones en las especies. Fue de esta forma como Morgan se decidió a trabajar con la mosca de la fruta la Drosophila melanogaster, que le permitió observar los cambios generacionales mucho más rápidamente y de manera más sencilla (tradicionalmente los botánicos tenían que esperar a que se cumplieran los ciclos normales de las plantas para poder analizar a su progenie, lo cual, algunas veces, ocurría una vez al año). Esta decisión también le simplificó su presupuesto: estas moscas se pueden cultivar en frascos de vidrio y añadirles simplemente trozos de plátano dentro (en la actualidad se prepara una sustancia que se llama agar, cuyo olor es muy desagradable, es líquida y café cuando está caliente y de color pardo y sólida cuando está fría, se prepara en unas ollas grandes, sobre estufas u hornillas, y como al chocolate, hay que estarla batiendo constantemente.)

Morgan era la cabeza de un grupo de biología experimental del Departamento de Zoología de la Universidad de Columbia, N.Y. Sus estudiantes, Alfred Henry Sturtevant (1891-1970), Herman Joseph Muller (1890-1967) y Calvin Blackman Bridges (1889-1938), eran investigadores jóvenes que, bajo la tutela de Morgan, hacían su trabajo de tesis doctoral. (Muller, aunque oficialmente era dirigido por el citólogo E.B. Wilson, pasaba todo el día en el laboratorio, mejor conocido como el cuarto de las moscas, pues lo único que había eran escritorios llenos de frascos con moscas y microscopios de disección listos para analizar a la progenie.)

En 1915 este grupo publicó un libro, ahora ya clásico, llamado El mecanismo de la herencia mendeliana en donde exponen el resultado de sus investigaciones. Describiremos brevemente cuáles fueron las más importantes.

1) Esta escuela pudo establecer que los factores elementales de los que Mendel hablaba —genes— formaban parte de los cromosomas —bastoncillos localizados en el núcleo de las células— y que, por lo tanto, los genes podían ser tratados como puntos específicos a lo largo de los cromosomas, y así saber; por ejemplo, su localización dentro de ellos. A esta teoría se le conoce como la teoría cromosómica de la herencia, y gracias a su establecimiento Morgan recibiría el Premio Nobel en fisiología y medicina en 1933, mismo que compartiría con Sturtevant y Bridges, ya que Muller para estas fechas ya se había independizado del grupo (cabe mencionar que Muller recibiría por su parte el Premio Nobel en 1947 por sus descubrimientos de los efectos de la radiación —rayos X— en la mosca Drosophila melanogaster.

La teoría cromosómica de la herencia establece que los genes forman parte de los cromosomas, lo cual explica, como hemos dicho, las leyes de Mendel a través de la meiosis, y nos lleva al siguiente problema: ¿es posible encontrar la localización de cada gene dentro de cada cromosoma? Morgan contestó afirmativamente. Esta idea, de localizar a los genes dentro de lugares concretos en el cromosoma, era algo complicada, así que Morgan acudió a sus estudiantes y les planteó el problema de la siguiente manera: si los cromosomas intercambian porciones de ellos durante la meiosis es posible construir mapas genéticos, en donde situar los diferentes genes de acuerdo con su comportamiento durante la meiosis.

Esta idea se convirtió en la tesis doctoral de Sturtevant, y permitió abrir un campo de investigación novedoso. A la fecha los organismos mejor conocidos desde el punto de vista de la localización de sus genes son la Drosophila melanogaster y la bacteria Escherichia coli.

2) Hemos dicho que la segunda ley de Mendel se refiere a la herencia independientemente de los pares de caracteres, sin embargo, en algunas ocasiones esta ley no se cumple. Cuando ciertos pares de caracteres tienden a permanecer juntos en generaciones sucesivas se dice que están ligados. El ligamiento ocurre cuando ciertos caracteres son transmitidos juntos con más frecuencia que otros y, por lo tanto, no siguen la segunda ley de Mendel. El ligamiento tiene una aplicación restringida a los casos en los cuales no hay intercambio o entrecruzamiento entre porciones enteras de los cromosomas implicados. El ligamiento y el entrecruzamiento son, por lo tanto, fenómenos correlativos y pueden expresarse con leyes numéricas bien definidas. Estos dos fenómenos forman parte del sistema de la herencia y tienen que tomarse en cuenta cuando se hacen análisis cuantitativos de los caracteres de los organismos.

El ligamiento hace que dos caracteres sean transmitidos juntos, mientras que el entrecruzamiento o recombinación significa que pueden ser separados durante el curso de generaciones posteriores. Un caso de ligamiento es lo que se conoce como herencia ligada al sexo y fue descubierta por Morgan. Este descubrió que el factor que determina el color de los ojos en la mosca Drosophila se localiza en el cromosoma X o al menos lo acompaña en la segregación. Este descubrimiento fue muy importante pues existen características cuyos genes al estar contenidos en los cromosomas sexuales, aparecerán en correlación con la proporción de los sexos, hembra o macho. Por ello, estos experimentos demostraron también que los genes están en los cromosomas.

El estudio de la recombinación fue hecho por Muller hacia 1916. Una vez establecido que los factores o genes están alineados en los cromosomas, Muller se preguntó si existe una correspondencia entre la frecuencia de la separación (recombinación) y la longitud del cromosoma. Efectivamente, si la recombinación indica intercambio de secciones enteras de cromosomas durante la meiosis, la distancia que separa a los genes es importante para poder intercambiarse. A mayor distancia, menor probabilidad de intercambio, a menor distancia, mayor probabilidad de recombinación. Con estos trabajos de Muller se estableció que los genes están alineados en los cromosomas y que la recombinación es el método de intercambio.

3) Distribución anómala de piezas de cromosomas. En algunas ocasiones una pieza de un cromosoma se desprende y se agrega a otro cromosoma, es decir; se transloca. El número de genes no se altera, pero sí su distribución. Si la pieza que se ha translocado se inserta junto al cromosoma normal, se dice que ha habido una duplicación. Un individuo portador de una duplicación tiene los genes por triplicado, un gene en el cromosoma normal y dos en el cromosoma donde se ha insertado la pieza translocada. También puede ocurrir que este trozo de cromosoma se pierda en las divisiones posteriores, entonces hablamos de una deficiencia. Estos individuos sólo tendrán un juego de ciertos genes que se localizan en el cromosoma normal. Obviamente estas distribuciones anómalas de piezas de cromosomas alteran los resultados obtenidos por Mendel. Se ha observado que si las translocaciones, duplicaciones y deficiencias son pequeñas, los individuos sobreviven, pero si éstas son grandes, por regla general son letales. Algunos ejemplos de este tipo de distribuciones anómalas en el humano son el síndrome de Down que es una duplicación cromosómica en el par 21 (el hombre tiene 23 pares de cromosomas), esta duplicación puede ser de todo el cromosoma o de sólo un segmento de éste. El síndrome de Turner es otro caso de deficiencia; ocurre en las niñas que nacen con un solo cromosoma X, cuando la dotación normal es XX. Estas niñas se desarrollan casi normalmente hasta la pubertad, momento en el cual dejan de producir los caracteres sexuales secundarios.

MUTAGÉNESIS

Después del establecimiento de la teoría cromosómica de la herencia se estableció la idea de que ciertos factores externos, como la radiación, pueden producir efectos sobre los cromosomas sin lesionar al resto de la célula en forma permanente. A esta nueva rama de la genética se le conoce como mutagénesis. Recordemos que los trabajos de Mendel, y posteriormente los de Morgan, se basaban en la presencia de ciertas características a las cuales se les seguía generación tras generación para averiguar cómo se transmitían. La escuela de Morgan tenía que esperar a que aparecieran nuevas características o mutantesde manera natural para poder analizar su comportamiento; esta nueva característica sería estudiada a través de la recombinación. Ahora sería posible inducir las mutaciones a conveniencia y estudiar el gene individual y su estructura. Este trabajo de producción de mutaciones y caracterización de los genes lo desarrolló Muller; y como ya mencionamos anteriormente, por ello le fue otorgado el Premio Nobel.

Muller hizo posible romper, agrupar o afectar a los cromosomas de la mosca de la fruta, exponiendo a los individuos en diferentes estadios de desarrollo, a radiaciones controladas en intensidad y en tiempo. El efecto de la radiación en los cromosomas y en los genes es heredado, de tal suerte que es posible seguir su pista de generación en generación.

Muller demostró que el esperma tratado con altas dosis de rayos X induce la aparición de mutaciones genéticas en una alta frecuencia. Muller encontró varios cientos de mutantes y tal vez un ciento de éstas fueron seguidas hasta por cuatro generaciones. Estas mutaciones eran estables en su herencia y se comportaban según las leyes de Mendel. La naturaleza de las cruzas favoreció la detección de las mutaciones, ya que muchas de ellas se encontraban ligadas al sexo. El tipo de mutaciones producidas por Muller iban desde ojos blancos, alas miniatura, cerdas bifurcadas, etcétera.

La mosca de la fruta, Drosophila melanogaster, tiene cuatro pares de cromosomas: I, II, III, y IV. El primero, o par sexual, es el cromosoma dos de los cuales los tiene la hembra (XX) y uno el macho (XY). El segundo par son cromosomas doblados, el tercero también pero son más largos que los del segundo par; y el cuarto son cromosomas diminutos, redondos o ligeramente alargados. Estos cromosomas contienen un gran número de genes marcadores que no son más que genes conocidos por las técnicas descritas anteriormente y que permiten seguir con cierta seguridad los cambios o mutaciones ocurridas espontáneamente o por la acción de los rayos X. Gracias a la capacidad de producir marcadores en los cromosomas de la mosca se creó un banco de mutantes de Drosophila, que era utilizado en todos los laboratorios experimentales del mundo.

La contribución más importante de Muller fue el lograr establecer que los genes tienen una existencia física capaz de cambiar o alterarse (mutar) por agentes externos, y que su característica más importante es el que estas variaciones sean heredables. De esta forma quedó establecido que la forma en la cual aparece la variación en la evolución es a través de mutaciones o cambios físicos en los genes. Al mismo tiempo estos estudios plantearon el interrogante de si las radiaciones son las causantes de las mutaciones naturales en el hombre. La respuesta de Muller fue negativa, habría que seguir investigando otras posibles causas que originaran mutaciones en los genes ya existentes y usar el método de producción artificial que permitiera conocer más acerca de la naturaleza de los genes.

BIOLOGÍA MOLECULAR

Hasta 1945 el gene era considerado como la unidad fundamental de la herencia, pero poco se sabía acerca de cómo funcionaba y cual era su estructura. Los genes sólo podían identificarse por mutaciones que produjeran aberraciones fenotípicas, es decir; visibles. Estas aberraciones variaban desde alteraciones simples (color de los ojos), hasta cambios morfológicos drásticos (alas hendidas, alas cortas, etc.). Veamos ahora cuál fue el aporte de la bioquímica a la genética moderna.

A principios de siglo se llevaron a cabo muchos trabajos sobre los errores de nacimiento, como el albinismo, la alcaptonuria, (errores que se deben a la ausencia de ciertas enzimas) etc. y algunos trabajos sobre la pigmentación en las plantas y los animales que permitieron comenzar un estudio sistemático que relacionara a los factores hereditarios o genes, con las enzimas.

Fue en 1908 que A.E. Garrod publicó su libro Inborn Errors of Metabolism (Errores congénitos del metabolismo), en donde exponía sus observaciones de los errores o defectos metabólicos, como aquellos trastornos de los procesos bioquímicos en el hombre. Estudiando la orina y viendo cuáles eran las sustancias que un individuo anormal excretaba, Garrod logró seguir la pista de los desechos metabólicos de una enfermedad llamada alcaptonuria, que se caracteriza porque en la orina de los enfermos se encuentran unas sustancias llamadas alcaptones, las cuales son detectadas fácilmente pues son de color negro. Los infantes con esta enfermedad desde muy temprano ennegrecen el pañal, posteriormente estos pigmentos negros se fijan en los cartílagos, ennegreciendo las orejas. Garrod estudió esta enfermedad en un paciente y encontró que varios de sus familiares presentaban la misma enfermedad, de aquí concluyó que era una enfermedad hereditaria. Garrod supuso que su carácter hereditario se debía a errores genéticos en la producción de ciertas enzimas que detenían una cadena metabólica en algún punto específico, impidiendo la degradación normal de los compuestos orgánicos. Garrod no pudo ir más allá de este punto, pero estableció los cimientos de la relación entre la bioquímica y la genética.

Para que estos estudios pudiesen tener éxito se necesitó de otro tipo de organismos, más pequeños, cuyas generaciones fueran más rápidas y que su genoma fuese lo suficientemente pequeño para manipularlo. Tal fue el caso del Neurospora crassa, el hongo rosa que todos hemos visto arruinando las naranjas; de la Escherichia coli, una bacteria bastante cercana a nosotros pues vive inofensivamente en nuestro intestino; de la Saccharomyces cerevisiae, la levadura de la cerveza, y los virus (bacteriófagos o fagos, para abreviar) que infectan bacterias.

Dos bioquímicos, George W. Beadle y Edward L. Tatum establecieron en 1941 la relación entre los genes y las enzimas trabajando con el hongo del pan Neurospora crassa. Las dos preguntas que trataron de resolver fueron ¿cuáles son los pasos metabólicos en la producción de las proteínas? y por lo tanto, ¿cuáles son las alteraciones que impiden la formación normal de éstas?

Sometiendo a radiación a las esporas de Neurospora crassa produjeron mutantes que al ser analizados resultaron anormales. Esto es, aquellas cepas que no crecieran en un medio normal carecían de alguna enzima que impedía sintetizar el alimento. Si el producto común no podía obtenerse, entonces la ruta metabólica normal estaría siendo bloqueada en algún punto crítico.

Con estos estudios establecieron que los genes producen enzimas (proteínas) que actúan directa o indirectamente en la cadena metabólica en la síntesis de proteínas enNeurospora. Cada paso metabólico es catalizado por una enzima particular. Si se produce un error en la cadena de síntesis, la vitamina o enzima no se produce. ¿Qué ocurre? Si existe una mutación que afecta a un gene en la cadena de síntesis, ésta se bloquea y el resultado es la ausencia de la vitamina deseada. De esta suerte, Beadle y Tatum pudieron afirmar que las mutaciones en los genes producen su inactivación o no funcionamiento, y por primera vez se relacionó la actividad bioquímica de un gene con su estructura molecular. Acuñaron la ya famosa frase un gene, una enzima, que se refiere al hecho de que se requiere la acción de un gene para producir una enzima. Actualmente se ha modificado este principio, pues se sabe que los genes tienen las instrucciones, codifican, para la formación de polipéptidos, es decir; de moléculas más pequeñas que forman a las proteínas.

El año de 1941 había marcado un progreso en el conocimiento de los cromosomas como base de la genética gracias al florecimiento de la citología. Así, se conoció más acerca de la base fisicoquímica de los genes y su integridad como partículas o unidades discretas. En esta década, la mayoría de los genetistas no aceptaban la idea de que los genes eran como cuentas de un collar. El gene había sido definido mejor gracias a los estudios de Muller acerca de las mutaciones y de Beadle y Tatum acerca de la bioquímica del metabolismo.

Con el desarrollo de la microbiología se inauguró un campo nuevo de investigación en donde la problemática era saber si los microorganismos, distintos de los ya conocidos, tenían un aparato genético particular o era semejante al de los organismos superiores como la mosca de la fruta y los chícharos de Mendel.

Durante estos años fue notable la multiplicación de las ideas, de los trabajos de investigación y del personal que laboraba en el terreno de la biología molecular; la medicina, la citología y la bioquímica.

En 1943 Salvador Luria, físico italiano que huyó del fascismo y emigró a Estados Unidos, trabajó con bacterias y diseñó valiosos experimentos que demostraron que ellas mutan en la misma forma que los organismos superiores y que sus adaptaciones son el resultado de la evolución. Por lo tanto, su aparato genético, aunque pequeño, es semejante al de los demás organismos conocidos. El siguiente interrogante fue saber qué era el material genético y cuál era su estructura.

Esta última pregunta fue contestada por Seymour Benzer en la década de los cincuenta y para hacerlo utilizó al mutante rII del fago T4. La idea tradicional acerca de los genes era que éstos eran la unidad de función, de mutación y de recombinación. Sin embargo, análisis más detallados demostraron que se podía dividir en tres unidades distintas. Para Benzer existía una estructura fina del material genético en donde la unidad de mutación, la de recombinación y la de función podían caracterizarse por separado.

De estos análisis Benzer introdujo el término de cistrón para definir a las unidades genéticas funcionales, es decir; la unidad mínima que contiene la información para la producción de una proteína, mientras que las otras dos unidades, el mutón (unidad de mutación), y el recón (unidad de recombinación) no necesariamente son equiparables a un gene.

Demostrada la estructura fina del gene y poniendo al mismo nivel al cistrón y al gene mendeliano, quedaban por contestar las preguntas de qué es el material genético, de qué elementos químicos está compuesto y cómo se duplica para ser transmitido de células madres a células hijas.

EL ADN: LA MOLÉCULA DE LA HERENCIA

Curiosamente, el ADN, ácido desoxirribonucleico, fue descubierto en 1869 por el químico suizo Friedrich Miescher. Este químico usó la enzima llamada pepsina para digerir las proteínas contenidas en el pus. Notó sin embargo, que existían algunos elementos que contenían fósforo que no lograban ser digeridos por la enzima. A principios del siglo XX,en 1914, Robert Fuelgen inventó una técnica nueva de tinción del ADN conocida como tinción de Fuelgen. Gracias a esta nueva técnica logró visualizarse el material contenido en el núcleo, y medir de una manera aproximada la cantidad de ADN presente, dependiendo de la intensidad del color. Esto llevó al descubrimiento de que todos los núcleos de las células de un mismo individuo tienen la misma cantidad de ADN, a excepción de los gametos (óvulos o espermatozoides), cuya coloración era aproximadamente la mitad de la intensidad más alta.

A pesar de esto, durante estos años no se pudo establecer con exactitud cuál era el material genético. Se sabía de la existencia de los ácidos nucleicos y de las proteínas, pero no se había logrado establecer cuál de éstos era el material hereditario. Paradójicamente, de las investigaciones sobre el ADN se descartó la posibilidad de que éste fuera el material hereditario, pues su composición era sencilla (está formado por cuatro moléculas básicas), comparada con la composición de una proteína (formada por 20 moléculas básicas). Se pensó que la determinación de la vida debería estar contenida en moléculas complejas, y por lo tanto, el ADN era un mal candidato.

¿Cuál era el material hereditario? Fueron muchos los experimentos diseñados y las hipótesis propuestas para contestar esta pregunta. Mencionaremos sólo aquellos que marcaron el camino para la dilucidación de la estructura del ADN.

Gracias a las investigaciones con bacterias que realizaron C.T. Avery, C.M. Mc Leod y M.J. Mc Carty en 1944 se pudo comprobar que el ácido desoxirribonucleico o ADN es la molécula portadora de la información genética, aunque en el caso de ciertos tipos de virus es otro ácido nucleico, el ARN (ácido ribonucleico).

Ya hacia 1920 se sabía que el ADN contenía cuatro bases nitrogenadas: adenina (A), guanina (G), citosina (C) y timina (T). En 1948 Erwin Chargaff y Hotchings, al aplicar una técnica novedosa llamada cromatografía en papel, la cual permitía la separación y estimación cuantitativa de los constituyentes del ADN, mostraron que estas cuatro bases no necesariamente se encontraban en iguales proporciones dentro de la macromolécula. Sin embargo, haciendo un análisis entre el número total de pirimidinas (G-C) y de las purinas (A-T), Chargaff encontró lo que se denominó la regla de equivalencia, según la oval el número total de unas era igual al de las otras, A=T y G=C.

Sin embargo, este descubrimiento no fue suficiente para dilucidar la estructura del ADN.Fue gracias a la aplicación de la cristalografía de rayos X al estudio de las moléculas biológicas se pudo extraer la estructura tridimensional del ADN.

Muchos intentos fueron hechos a partir de los estudios de W. T. Atsbury, quien fuera un pionero en el estudio de las proteínas por medio del método de la cristalografía de rayos X. Atsbury propuso en 1945, por ejemplo, que el ADN estaba constituido de una columna de nucleótidos apilados en paralelo, uno encima del otro, situados cada 3.4 A* a lo largo del eje de la molécula. Estos resultados abrieron el camino para que tres grupos de investigadores retomaran el análisis del ADN con este método y lograran después de 1950 la dilucidación de su estructura tridimensional.

El primer grupo, el de Linus Pauling y colaboradores, postuló una estructura de triple hélice, sostenida por enlaces de hidrógeno.

El segundo grupo, el de Maurice Wilkins y Rosalind Franklyn, obtuvo, a través de preparaciones de fibras de ADN, fotografías por difracción de rayos X que mostraban que la distancia entre los nucleótidos predicha por Atsbury era correcta.

James D. Watson y Francis Crick, del tercer grupo, dedujeron el modelo de la estructura tridimensional del ADN. Este modelo postulaba que el ADN era un cadena de polinucleótidos con una forma de hélice regular de doble cadena, con diámetro aproximado de 20 A*, la cual da una vuelta completa cada 34 A*, existiendo 10 nucleótidos por vuelta (ya que la distancia entre ellos es de 3.4 A*). Las dos cadenas se enroscan hacia la derecha y son antiparalelas, es decir; tienen direcciones opuestas. Los anillos de las purinas y las pirimidinas se apilaban como planos perpendiculares al eje principal de la molécula; el plano de la desoxirribosa forma el esqueleto de la cadena con su fosfato esterificado, paralelo al eje principal y por lo tanto perpendicular al plano de los anillos de las bases. Las bases se orientan hacia el interior de la cadena y en cada residuo las dos cadenas polinucleotídicas son mantenidas juntas por la formación de enlaces de hidrógeno entre una purina de una cadena y una pirimidina de la otra (Figura 2).

Figura 2. James D. Watson . 

Opuesta a cada adenina (A) de una cadena existe una timidina en la otra y esta misma relación de complementariedad existe entre la citosina y la guanina. La consecuencia principal de esta complementación entre las bases de ambas cadenas condujo a la resolución de la duplicación o replicación del ADN. Si las dos cadenas eran complementarias, esto suponía que la replicación podía efectuarse si al separarse (por el rompimiento de los puentes de hidrógeno) las dos cadenas cada una sirviera de molde para formar su propia cadena complementaria (Figura 3).

Al terminarse la formación de ambas cadenas complementarias tendríamos dos cadenas de ADN con la misma información y secuencia de bases que la molécula materna. 

Figura 3. Duplicación de ADN. En (a) podemos observar la cadena de ADN en una configuración helicoidal. En (b) la duplicación se inicia cuando la doble hélice se abre en un punto formando dos horquillas que se mueven en direcciones opuestas. En (c) cada cadena nueva es apareada de acuerdo con el patrón de las bases presentes; la unión de los nucleótidos sólo ocurre en dirección 5′ a 3′. En (d) apreciamos las dos cadenas recién formadas en su configuración usual de doble hélice. Las dos moléculas producidas de ADN son idénticas, pero la duplicación ha sido semiconservativa, es decir, cada cadena tiene una de las hebras originales.

Para Watson y Crick, este modelo de la doble hélice representaba algunos avances para el entendimiento de la replicación del ADN: una de las principales funciones del material genético. Gracias a estos trabajos, Watson, Crick y Wilkins recibieron el Premio Nobel en 1962, y en algunas ocasiones, para referirse al modelo de la doble hélice, una cadena es llamada Watson y la opuesta Crick.

Una vez que se propuso el modelo de la doble hélice había que encontrar cómo se traduce la información contenida en ella a proteínas. Este gran descubrimiento lo hizo el mismo Francis Crick y sus colaboradores en 1961 trabajando con la región rII del bacteriófago T4. El resultado de estos trabajos designado como el código genético que indica la forma en la que es traducido el alfabeto del ADN (formado por la combinación de cuatro bases) al alfabeto de las proteínas (formado por la combinación de 20 aminoácidos).

Desde que fueron hechos estos descubrimientos se han desarrollado nuevas técnicas y se han propuesto hipótesis cada vez más ambiciosas para conocer, dilucidar y manipular el ADN de los diferentes organismos. Se ha logrado conocer más de cerca cuál es la estructura de un gene, cuánto mide en términos de pares de bases, cómo se lleva a cabo la síntesis de proteínas y se empieza a entender algo acerca de la regulación génica. En lo que respecta a la manipulación del ADN, la llamada ingeniería genética trata de construir organismos que sean de utilidad para el hombre, y para tal efecto ha insertado ciertos genes dentro de pequeños organismos como las bacterias o los virus para fabricar enzimas o vacunas de importancia médica para el hombre.

 

Blog de WordPress.com.

Subir ↑